identifier
stringlengths
14
257
collection
stringclasses
5 values
open_type
stringclasses
1 value
license
stringclasses
4 values
date
float64
1.9k
2.02k
title
stringlengths
1
975
creator
stringclasses
774 values
language
stringclasses
1 value
language_type
stringclasses
1 value
word_count
int64
2
312k
token_count
int64
10
553k
text
stringlengths
23
2.08M
__index_level_0__
int64
0
57.3k
2009GRE10257_6
French-Science-Pile
Open Science
Various open science
2,009
FOCAS : un canevas extensible pour la construction d'applications orientées procédé
None
French
Spoken
7,873
12,641
Exemple d’un modèle de services Un ensemble de services utilisables dans notre exemple de l’application d’alarme consiste en : un service capable de calculer la moyenne des températures (Analysis), un service de stockage pour garder l’historique des moyennes calculées (Persistance) et un service ayant la capacité d’agir sur les équipements de l’usine de production afin de régler les problèmes éventuels (Controler). Les interfaces Java, très simplifiées, servant à décrire ces services sont présentées dans la Figure 31. public interface Analysis { public Average calculate Average (TemperatureList tempertures); } public interface Persistance { public void save(Average average); } public interface Controler { public void doAction(Action action); } Figure 31. Modèle de services pour le système d’alarme. 89 NOTRE PROPOSITION L’interpréteur de services : SAM L’interpréteur de services SAM (de son acronyme en anglais Service Abstract Machine) n’a pas comme objectif de fournir l’implémentation des services utilisés dans l’orchestration, mais d’offrir une machine capable d’assurer les mécanismes de base de l’approche à services. La SAM fournit des mécanismes pour la description, la découverte et la communication des services. Une autre fonction de la machine abstraite de services est de cacher l’hétérogénéité des technologies utilisées pour l’implémentation de ces services. En fait, la machine SAM réifie les concepts de plates-formes à services sous-jacentes comme OSGi et les services Web. Ensuite, elle présente une vue homogène des services à ses clients pour enlever le souci de traiter avec la technologie concrète d’implémentation des services. Une description plus détaillée de cette machine sera présentée dans le chapitre suivant, dédié à la mise en œuvre du canevas FOCAS. Les classes en blanc, SAM, ServiceInstance et PropertyValue sont utilisées par l’interpréteur SAM pour représenter l’état de l’exécution du domaine de services. 6.3 COMPOSITION DES DOMAINES POUR L’ORCHESTRATION Nous allons présenter comment les trois domaines définis précédemment sont composés pour construire le domaine de l’orchestration de services. La composition de domaines est effectuée à trois niveaux, à savoir : Composition de méta-modèles. L’identification des relations entre les concepts de chaque méta-modèle doit être établie. Nous nous appuyons sur la définition explicite des méta-modèles afin d’établir les relations entre ces concepts. Composition de modèles. Les modèles créés dans chaque domaine doivent être intégrés afin de former des modèles d’orchestration « complets ». Cette composition doit être conforme à la spécification des relations entre les concepts des méta-modèles. Composition des interpréteurs. Les interpréteurs utilisés dans chaque domaine peuvent être récupérés et composés afin de construire l’interpréteur de l’orchestration de services. Pour réaliser la composition de nos points de vue et construire notre système noyau d’orchestration nous avons suivi l’approche de composition de domaines exécutables proposée par [Veg05] et [Ngu08]. Cependant, cette approche générique ne profite pas de la connaissance des méta-modèles à composer et de leurs interpréteurs. Nous allons présenter l’approche de composition de domaines exécutables, et ensuite nous montrons comment elle a été utilisée et adaptée à nos besoins dans la composition de nos domaines. 6.3.1 La composition des domaines exécutables Etant donné que les points de vue choisis pour l’orchestration ont été formalisés par le biais d’un méta-modèle et qu’un interpréteur existe pour chacun, pour créer notre système noyau d’orchestration nous avons repris les travaux de composition de domaines exécutables proposés par [Veg05] et [Ngu08]. Dans cette sous-section, nous allons introduire travaux afin de donner un contexte avant de présenter notre démarche de composition. Le concept de domaine exécutable Dans [Veg05], le concept de domaine est défini comme un ensemble de systèmes qui partagent un nombre de problèmes communs, et vraisemblablement une solution commune. C’est la vision de domaine utilisée dans les approches de lignes de produits [Har02]. Dans l’approche proposée par [Veg05], un domaine est formalisé en utilisant une approche de métamodélisation. Une analyse du domaine donne comme résultat un méta-modèle (ou langage de 6.3 COMPOSITION DES DOMAINES POUR L’ORCHESTRATION 90 modélisation) contenant les concepts les plus pertinents du domaine par rapport à un objectif de modélisation. Une fois le langage de modélisation spécifié, la notion d’exécution des modèles du domaine doit être définie. D’après l’approche IDM, un modèle peut être rendu exécutable par génération ou par interprétation. Nous considérons qu’une technique d’interprétation est plus adéquate pour fournir la sémantique d’exécution des modèles du domaine, car elle ne doit pas prendre en compte la dynamique d’évolution des plateformes d’exécution. C’est ainsi qu’un interpréteur (ou machine virtuelle d’exécution) est utilisé dans chaque domaine pour fournir la sémantique d’exécution du domaine comme proposé par [Thi98]. L’interpréteur du domaine fournit la sémantique d’exécution d’un modèle. Cette notion d’exécution spécifie les états possibles du système et sa dynamique d’évolution, c’est-à-dire l’exécution abstraite des modèles (vision utilisateur). Cependant, il est important de produire une vision de l’exécution basée sur la plate-forme d’exécution (perspective d’implémentation) connue comme l’exécution concrète du domaine. Cette exécution, doit préoccuper des détails appartenant à l’espace de la solution, donc à l’infrastructure technologique supportant l’exécution du domaine. Ainsi, l’exécution concrète doit intégrer des composants et des applications existantes pour supporter l’exécution du domaine. Architecture d’un domaine exécutable L’architecture d’un domaine exécutable établit le lien nécessaire entre les deux visions d’exécution, l’exécution abstraite est concrète. Elle est héritée de la proposition de fédération de composants faite par [Vil03] et [Anh04] au sein de notre équipe de recherche pour faire face au problème d’intégration de composants hétérogènes. L’architecture est divisée en trois couches : La couche des outils qui contient les composants à intégrer. Différents types de composants peuvent être utilisés tels que des COTS, des systèmes patrimoniaux, des librairies, etc. La couche conceptuelle qui est composée de l’interpréteur du domaine et les modèles à exécuter. L’interpréteur pilote l’exécution des composants dans la couche des outils. Un contrat de coordination définit le comportement qui doit être fourni par les outils (rôles) et exprime comment les outils se comportent par rapport à l’évolution de l’exécution des modèles. La couche de médiation est chargée de résoudre les problèmes d’hétérogénéité des outils composés. Des adaptateurs sont inclus afin que les outils implémentent les rôles requis pour participer dans la composition. L’architecture d’un domaine exécutable est schématisée dans la Figure 32. M1 Abstract Layer M2 Mn Models Interpreter Coordination Contract Roles Mediation layer Adapters Tools (COTS, libraries, Legacy systems) Tools layer Figure 32. Architecture de la fédération des composants. 91 NOTRE PROPOSITION Le domaine comme unité de composition L’approche de composition de domaines exécutables [Veg05] établit le domaine exécutable en tant qu’unité de composition. Des domaines exécutables plus vastes et complexes sont créés en utilisant un mécanisme de composition. Cette composition est faite au niveau des interpréteurs et des modèles (la couche conceptuelle) et n’est pas au niveau des outils supportant l’exécution concrète de domaine (la couche des outils), ce qui favorise l’évolution technologique du domaine. La composition de domaines exécutables est schématisée dans la Figure 33. MA 1 Abstract Layer MB1 MA2 MB2 MA3 Models MB3 Interpreter DA Interpreter DB Coordination Contract Coordination Contract Roles Mediation layer Adapters Tools Tools layer Figure 33. Le domaine comme unité de composition. La composition au niveau conceptuel favorise la réutilisation des composants formant partie de l’espace de la solution, mais en plus, la réutilisation des autres artefacts du domaine peut être effectuée. Notamment, la réutilisation des langages de chaque domaine, des modèles exprimés dans ces langages, des outils de spécification de modèles et des interpréteurs. Cependant, pour mettre en place une composition au niveau conceptuel, il faut la décliner sur trois mécanismes ; la composition de langages (méta-modèles), la composition de modèles et la composition des interpréteurs. Dans [Veg05] ces mécanismes sont définis avec une vision très pragmatique et ad hoc ; dans [Ngu08] ils ont été repris et définis explicitement. Par la suite nous allons présenter les trois axes comportant le mécanisme de composition de domaines exécutables. Composition de méta-modèles Dans la section précédente nous avons décrit la formalisation d’un domaine par le biais d’un méta-modèle et la mise en place d’une architecture structurée autour de l’interpréteur du domaine. Nous présentons maintenant comment ces unités de structuration sont composées afin de produire des domaines plus complexes à partir des domaines existants. L’objectif est de rester dans une vision de séparation de préoccupations pour améliorer la modularité et obtenir des taux de réutilisation plus importants. D’abord, nous allons présenter comment les méta-modèles sont composés pour construire le méta-modèle composite du domaine. Chaque méta-modèle de base permet aux développeurs de décrire sous forme de modèle une vue particulaire du système à construire. La composition des méta-modèles décrit les relations entre ces différents points de vue. Une des propriétés de cette démarche est que les environnements de spécification de modèles de chaque domaine sont réutilisés, donc les développeurs utilisent ces outils pour spécifier le modèle correspondant à la vue du domaine. 6.3 COMPOSITION DES DOMAINES POUR L’ORCHES TRATION 92 L’approche suivie afin d’implémenter la composition de méta-modèles est l’établissement de relations (méta-liens) entre les concepts des méta-modèles composés. Ces relations sont binaires, donc un concept d’un méta-modèle est mis en relation avec seulement un concept de l’autre. Dans la Figure 34 un exemple de composition est présenté, une relation est établie entre le concept Component du méta-modèle Development et le concept Unit du métamodèle Deployment. Architecture::Application Architecture Metamodel 1 Architecture::Ty pe +name: String 0..* hasComponents isExecuted 1 0..* Developm ent::Property has +name: String Developm ent::Com ponent <<metalink>> +name: String 1 executes 0..* +name: String +packaginType: String hasNodes ..* Developm ent::Interface +name: String Figure 34. +address: String requires 1..* Development Metamodel 1 Deploy m ent::Node 0..* 0..* provides 1 Deploy m ent::Unit Deploy m ent::Network Deployment Metamodel +name: String Composition de méta-modèles de domaines. Il est possible que les concepts des méta-modèles composés ne soient pas suffisants pour exprimer tous les concepts du nouveau domaine. Les nouveaux concepts apparaissent dans le méta-modèle composite sont appelés concepts émergeants. Dans l’exemple les concepts Application et Type sont des concepts émergeants du méta-modèle composé Architecture. La sémantique des méta-liens n’est pas spécifiée, elle est matérialisée au moment de composer les interpréteurs des domaines ; cette composition sera présentée par la suite. Composition de modèles Un méta-modèle composite est un nouveau langage de modélisation permettant de spécifier le système depuis la perspective du domaine composite. Dans la démarche de composition de domaines exécutables, pour spécifier un modèle en utilisant le nouveau langage de modélisation, le concepteur doit s’intéresser seulement aux préoccupations associées à la composition, donc celles qui ne sont déjà considérées par les sous-domaines. Par conséquent, un modèle conforme au nouveau méta-modèle est formé par un modèle importé pour chacun de sous-domaines, plus le modèle composite faisant référence aux modèles des sous-domaines et qui établie des liens explicites entre les modèles. Ces liens doivent être conformes aux méta-liens définis au niveau de la composition des méta-modèles. Des règles de cohérence peuvent être définies au niveau de la composition des méta-modèles permettant de valider qu’un modèle composite est bien formé. Cependant, ces règles ne peuvent pas être imposées à l’intérieur des modèles des sous-domaines. La Figure 35 présente le modèle Architecture -X conforme au méta- modèle composite Architecture de l’exemple précédent. Les modèles Development-Y et Deployment-Z ont été importés pour constituer le nouveau modèle composite. Ensuite, un lien entre l’élément SQLQuery de type Component et l’élément Query.jar de type Unit a été spécifié pour lier des éléments des deux modèles. Ce lien doit être conforme au méta-lien défini dans la composition de méta-modèles. Pareillement, un lien a été spécifié entre l’élément log4j et l’élément log4j.jar. Puis, l’élément db du type émergent Application a été défini ainsi que ses relations avec les éléments de modèles de Development-Y et Deployment-Z. Finalement, le modèle composite Architecture-X est conformé par les modèles importés (Development-Y et Deployment-Z), les 93 NOTRE PROPOSITION éléments conformes aux types émergents, les liens (query, log) conformes aux méta-liens et les relations entre l’élément db et les éléments de modèles importés. Architecture-X Model db : Application name = db Query.jar : Unit SQL-Query : Component <<link>> query name = SQL-Query name = Query.jar packaginType = bundle mauresmo : Node address = 192.168.1 log4j : Component <<link>> name = log4j log log4j.jar : Unit name = log4j.jar packaginType = jar Deployment-Z Model Development-Y Model Figure 35. Composition de modèle s de domaines . Pour spécifier la composition de méta-modèles et de modèles nous avons repris le langage défini par [Ngu08] et l’outillage associé. L’outillage permet de spécifier les méta-liens entre les méta-modèles et ensuite, de générer un outil de composition de modèles respectant les contraintes exprimées avec les méta liens. Composition des interpréteurs La composition des méta-modèles indique les relations existantes entre les concepts des domaines à composer. De la même façon que nous avons défini la notion d’exécution pour les domaines atomiques, nous devons définir la notion d’exécution pour les domaines composites. L’interpréteur du domaine composite est créé en réutilisant les interpréteurs de chaque sousdomaine sans les modifier. La composition consiste alors en une synchronisation des d’exécutions des interpréteurs des sous-domaines. La composition des interpréteurs doit prendre en compte les méta-liens faits au moment de la composition des méta-modèles. Généralement, un méta-lien est traduit dans l’interpréteur par l’inclusion d’un champ dans une des classes faisant référence à une instance de l’autre classe. Par exemple, dans le cas du méta-modèle Architecture, un attribut de type Component (Development) peut être ajoute à la classe Unit (Deployment). Ainsi, cette traduction est potentiellement déduite de la spécification des méta-liens. Cependant, dans un interpréteur, en plus des classes représentant la partie statique du domaine (les concepts du méta-modèle), il existe des classes servant à fournir sa dynamique d’exécution [BB01]. Les classes faisant partie de la partie dynamique du méta-modèle ne sont pas explicitées dans le méta-modèle structurel du domaine, par conséquent c’est la responsabilité du développeur de la composition de synchroniser leur dynamique d’exécution. Revenant sur notre exemple, lorsqu’une instance de Unit est éliminée dans l’interpréteur du domaine Deployment, une action doit être effectuée dans l’interpréteur du domaine Development (peut-être éliminer l’instance associée de Component). Nous utilisons des techniques de programmation orientée aspect pour implémenter la composition des interpréteurs. Notamment, le langage AspectJ permet d’ajouter des membres dans des classes Java existantes et de modifier le code des méthodes, soit en ajoutent du comportement ou en le remplaçant. Techniquement, la composition des interpréteurs consiste à ajouter les classes qui correspondent aux concepts émergeants du méta-modèle composite. Ensuite, en utilisant la POA, développeur ajoute des membres aux classes existantes et on modifie certaines méthodes pour synchroniser les états des deux machines. Nous avons utilisé le cadre théorique de la composition de domaines exécutables pour fusionner les trois points de vue faisant partie de l’orchestration de services. Par contre, nous avons adapté les mécanismes de composition de domaines à nos outils et besoins particuliers. D’ailleurs, nous avons aussi implémenté nos propres mécanismes de composition des interpréteurs, car nous voulons profiter de la connaissance que nous avons sur les méta-modèles 6.3 COMPOSITION DES DOMAINES POUR L’ORCHESTRATION 94 et leurs interpréteurs. Cependant nous respectons les contraintes de la composition des domaines exécutables. Nous allons par la suite présenter comme la composition des nos domaines a été réalisée. 6.3.2 Composition du domaine de contrôle et de données Le domaine de contrôle permet de spécifier une suite d’actions à exécuter sur un ensemble d’entité sans décrire la nature des entités. Le domaine de données permet d’exprimer la structure des entités sans dire comment elles seront manipulées. Chaque domaine permet de décrire le système depuis un point de vue autonome. De l’analyse des relations existantes entre les deux domaines, nous pouvons faire certains choix pour réaliser la composition. Le concept de type de produit (ProductType) du domaine de contrôle sera concrétisé en utilisant le concept de type complexe de données (ComplexType) du domaine de données. Nous considérons que ces deux concepts expriment deux facettes différentes : d’une part le contrôle où le type de produit sert à différencier les produits et d’autre part les données où le type exprime la structure des données à manipuler. De façon analogue, les concepts utilisés pour représenter l’état de l’exécution ont aussi des relations. Le concept de ProductInstance servant à déterminer une valeur pour chaque instance de Product dans le domaine du contrôle sera concrétise par le concept de Revision dans le domaine des données. Cette relation, n’est pas indépendante de celle définie auparavant ; à une instance d’un produit (ProductInstance) typé avec un type abstrait (ProductType) doit correspondre une instance d’une donnée (Revision) typé avec un type concret (ComplexType). La différence entre les deux types de relation est que la première est une relation entre les langages de modélisation tandis que la deuxième est une relation visible par les interpréteurs. Par la suite nous présentons la composition des méta-modèles et des interpréteurs. Composition de méta-modèles Au niveau des méta-modèles la composition consiste à définir un méta-lien entre le concept ProductType dans le domaine du contrôle et le concept ComplexType dans le domaine des données. La classe ProductType est un type de produit, mais il sert seulement à typer les produits sans donner de détails sur la structure du type. Cette classe sera concrétisée par la classe ComplexType qui va fournir la structure du type. Le méta-lien entre les deux classes est exprimé comme une association décorée avec le stéréotype metalink présentée dans la Figure 36. La composition de ces méta-modèles permet d’avoir un nouveau langage, mais dans l’esprit de notre approche, nous allons réutiliser les modèles produits dans les sous-domaines contrôle et données afin de créer les modèles dans le nouveau langage. Domaine du contrôle Domaine des données +child 0..* APEL::Activity 1 +parent -name: String +exit 1 APEL::Port Data::DataType +name: String +isAutomatic: Boolean 1 +datatype +name: String 0..* +entry 1 0..* 1.. Data::Attribute +products +type APEL::Product -name: String 0..* Figure 36. 1 APEL::ProductType -name: String +concretize 0..1 <<metalink>> 1 Data::ComplexType 1 +name: String +multiplicity: int +isKey: boolean 1..* +shared: boolean +mandatory: boolean +attributes +read-only: b oolean Composition de méta-modèles de contrôle et de données . 95 NOTRE PROPOSITION Cette composition est un bon exemple de l’utilisation du concept de domaine comme point de vue permettant ainsi de réaliser notre vision de séparation des préoccupations. En fait, le concepteur du modèle de contrôle se concentre sur la définition des activités et leur enchaînement sans s’inquiéter de la structure des entités manipulées, tandis que le concepteur du modèle de données spécifie la structure de données sans s’occuper de comment ces données seront traitées. Finalement, un intégrateur s’occupe de définir les liens entre les différents points de vue. Composition de modèles L’opération de composition de modèles consiste à importer un modèle existant pour chaque sous-domaine (contrôle et données), puis l’utilisateur doit effectuer la définition des liens entre les instances des concepts ProductType et ComplexType des modèles respectifs. Nous allons illustrer la composition des modèles entre les domaines de contrôle et données en utilisant l’exemple du système d’alarme de l’usine de production présenté dans la section 6.2.1. Dans le modèle APEL du système d’alarme ont été définis les types de produits (ProductType) Measure, MeasureList, Average, et Command, d’autre part, dans le modèle de données ont été définies les types complexes de données (ComplexType) Temperature, TemperatureList, Average et Action. Une relation est spécifiée pour indiquer qu’un type de produit Measure sera concrétisé par un type complexe de donnée Temperature. De la même façon, les couples MeasureList-Temperature , Average-Average et Command-Action ont été spécifiés. Un modèle conforme au nouveau méta-modèle composite est formé alors par les deux modèles originaux plus la définition de liens présentés ici, les modèles originaux ne sont pas modifiés. Dans la Figure 37, la composition des modèles est schématisée. La partie haute correspond à la définition de méta-liens entre les domaines, en bas, nous présentons les liens conformes à ces méta-liens dans le cas de notre exemple. Méta-modèle Domaine du contrôle ProductType -name: String Measure : ProductType <<metalink>> 0..1 <<link>> name = Measure Modèles MeasureList : ProductType <<link>> <<link>> 1 Temperature : ComplexType TemperatureList : ComplexType Average : ComplexType name = Average <<link>> name = Command Figure 37. Com plexType name = Temperature List name = Average Command : ProductType +concretize name = Temperature name = MeasureList Average : ProductType Domaine des données Action : ComplexType name = Action Composition des modèles du domaine de contrôle et de données. Composition des interpréteurs L’interpréteur d’exécution du domaine composite est construit en réutilisant le moteur d’exécution d’APEL (interpréteur de contrôle) et l’interpréteur de données sans les modifier. La composition est réalisée en deux parties : d’abord la composition des classes représentant les 6.3 COMPOSITION DES DOMAINES POUR L’ORCHESTRATION 96 concepts du langage de modélisation, ensuite la composition des classes servant à la représentation la dynamique d’exécution de l’interpréteur. Au niveau des concepts appartenant aux langages de modélisation, le méta-lien exprimé entre ProductType et ComplexType dans la composition de méta-modèles va se matérialiser dans l’interpréteur par l’inclusion de l’attribut dataType de type ComplexType dans la classe ProductType. Cette composition peut être déduite à partir des définitions des méta-liens. Pour implémenter la dynamique d’exécution du nouvel interpréteur, il est nécessaire de déterminer quels concepts seront synchronisés entre les deux interpréteurs de base. Nous avons pris la décision d’associer une révision (Revision) de l’interpréteur de données à chaque instance de produit (ProductInstance) du moteur d’APEL. La synchronisation de ces concepts requiert de : Inclure un attribut de type Revision dans la classe ProductInstance pour garder une référence vers la révision associée. Créer une nouvelle instance de la classe Revision chaque fois qu’une nouvelle instance de la classe ProductInstance est doit être créé. Créer une nouvelle instance de la classe Revision chaque fois qu’un clone d’un ProductInstance doit être créé, et l’initialiser avec les mêmes valeurs. Data ::DataTy pe +ty pe +name: String 1 0..* +concretize APEL::ProductTy pe APEL::Product Data::Com plexTy pe 1 -name: String -dataType: ComplexType -name: String <<metalink>> Data::Data 1 1 1 1 +v ariable +main +branches 1..* +revisions APEL::ProductInstance +value 0..1 -rev ision: Revision +ProductInstance() +cloneInstance() Figure 38. <<metalink-exe>> 1..* 1 Data:: Branch Data:: Revision 1 1 1 Méta-modèle composite de contrôle et données. La matérialisation de cette synchronisation est faite par l’inclusion de l’attribut revision de type Revision dans la classe ProductInstance, la modification du code du constructeur de la classe pour ajouter la création d’une instance de Revision, l’assignation de cette instance à l’attribut revision, la modification de la méthode cloneInstance() pour ajouter la création d’une nouvelle instance de Revision, la copie des attributs de la révision originale dans la nouvelle révision. La Figure 38 présente le méta-modèle composite de la machine d’exécution Une association avec le stéréotype « metalink-exe » a été définie entre les classes appartenant à la partie dynamique du méta-modèle qui doivent être synchronisées. 97 NOTRE PRO POSIT ION package configuration; import apel.*; import data.*; public aspect Associations { // Add the attribute dataType du type ComplexType into ProductType ComplexType ProductType.dataType; // Add the attribute revision du type Revision into ProductInstance Revision ProductInstance.revision; // Pointcut of cloneInstance method pointcut callCloneInstance(ProductInstance pi): call(ProductInstance ProductInstance.cloneInstance()) && target(pi) && args(); // Code executed when cloneInstance is invoked after(ProductInstance pi) returning: callCloneInstance(pi) { Revision rev = new Revision(); rev.copyAttributes(pi.getRevision()); ProductInstance productInstance = new ProductInstance(); productInstance.setRevision(rev); } } Figure 39. Implémentation en AspectJ de la machine composite de contrôle et donnée. Au contraire de la composition des concepts appartenant au langage de modélisation, la composition comportementale de l’interpréteur ne peut pas être déduite de la définition des méta-modèles, et doit être explicitement codée. Nous présentons dans la ci-dessus l’aspect développé en AspectJ pour implémenter les associations (méta-liens et méta-liens d’exécution) du méta-modèle composite. Le comportement associé à la méthode cloneInstance() est aussi inclus dans cet aspect. 6.3.3 Composition de domaines de contrôle et de services Le modèle de contrôle n’indique pas comment les actions des activités seront réalisées, donc cette composition spécifie comment les services vont réaliser ces actions, nous appelons cette relation une matérialisation (Grounding) du modèle de contrôle. De l’analyse des interactions possibles certains choix ont été faits : l’action d’une activité peut être associée à une opération fournie par un service ; les activités ne réalisent pas toutes leurs actions en utilisant une opération d’un service. Les activités composites par exemple, définissent leurs actions en fonction de leurs sous-activités ; d autres moyens peuvent être utilisés pour indiquer comment une activité réalise son action. Par exemple, un comportement peut être associé, ce qui ne correspond pas forcement à une opération d’un service ; Basé sur ces choix, nous avons implémenté la composition comme suit. Composition de méta-modèles Le concept d’activité du méta-modèle de contrôle est associé au concept d’opération du méta-modèle de services, mais seules les activités atomiques seront associées aux opérations de services. En plus certaines activités atomiques peuvent effectuer son action autrement, donc la relation n’est pas obligatoire. 6.3 COMPOSITION DES DOMAINES POUR L’OR CHESTRATION 98 Les produits qui sont dans le port desktop ont une relation avec les paramètres de l’opération invoquée ; chaque produit doit correspondre à un des paramètres d’entrée ou de sortie de l’opération. La définition de méta-liens est présentée dans la Figure 40. Services::Service 1 1 Services::Description +name 1 1 APEL::Activity -name: String <<metalink>> +grounds Services::Operation 0..1 Figure 40. 0..1 +operations +name 1..* 1 Services::Interface -package: String -name : String Composition de méta-modèles de contrôle et services. Composition de modèles Dans l’exemple du système d’alarme de l’usine de production, l’activité Analysis est associée avec l’opération calculateAverage du service Analysis, l’activité Storage avec l’opération save du service Persistance et finalement l’activité Processing avec l’opération doAction du service Controler. Les paramètres de ces opérations sont également associés avec les produits définis dans le port desktop de chaque activité. Une mise en correspondance automatique peut être réalisée à partir des types de données utilisés par les paramètres et ceux des produits, sinon le développeur doit explicitement indiquer les relations entre les paramètres et les produits de l’activité. Dans la Figure 41, la composition des modèles est schématisée : la partie haute correspond à la définition de méta-liens entre les domaines, en bas, nous présentons les liens conformes à ces méta-liens dans le cas de notre exemple. Méta-modèle Domaine du contrôle APEL::Activity -name: String Analysis : Activity <<metalink>> 0..1 <<link>> Modèles name = Analysis Storage : Activity <<link>> 0..1 +name calculateAverage : Operation 1..* -package: String -name: String Analysis : Interface save : Operation Persistance : Interface name = save <<link>> name = Processing Figure 41. Services::Interface +execute Services::Operation name = calculateAverage name = Storage Processing : Activity Domaine des services doAction : Operation Controler : Interface name = doAction Composition des modèles des domaines du contrôle et des services. Composition des interpréteurs Etant donné que APEL a été conçu avec l’idée que la nature des actions effectuées par les activités ne doit pas être connue par le formalisme ni par le moteur d’exécution, nous avons ajouté un mécanisme simple afin de pouvoir spécifier l’action à réaliser par une activité. Ce mécanisme est basé sur le patron de conception observateur : une classe implémentant l’interface ActivityObserver peut souscrire pour écouter les changements d’état de l’instance 99 NOTRE PROPOSITION d’une activité. Lorsque l’activité passe à l’état actif, la méthode doActive de cette interface est invoquée, permettant à la classe de fournir l’implémentation de l’action de l’activité. Nous allons profiter de la connaissance de l’implémentation de l’interpréteur d’APEL pour changer la façon d’implémenter la composition des interpréteurs. Plutôt qu’utiliser l’AOP pour composer les machines nous allons générer une classe implémentant l’observateur pour chaque paire activité-opération. L’observateur va être chargé d’écouter le moment de l’activation d’une activité (passage à l’état active). Une fois détectée cet événement, l’observateur pourra exécuter un ensemble d’actions afin d’invoquer l’opération du service associé. Les actions à exécuter consistent à réaliser une médiation de données si elle est nécessaire, c’est-à-dire, transformer les types de données utilisés par le workflow en des types utilisés par les services. Ensuite, une instance du service requis doit être trouvée ; l’observateur demande à la SAM qui retourne une instance de service implémentant l’interface du service requis. Puis l’observateur invoque l’opération en utilisant l’instance du service. Finalement si les données retournées par l’opération ont besoin d’une médiation, elle est réalisée et les données résultat sont mises dans le port de sortie de l’activité. Une propriété de la machine SAM est qu’elle a la capacité de cacher l’hétérogénéité des implémentations des services. L’observateur n’a pas connaissance de la technologie utilisée par l’instance du service retournée. Du point de vue de l’observateur, tous les services sont des classes Java qui implémentant les interfaces utilisées pour décrire le service requis. La SAM est chargée alors d’implémenter le protocole utilisé pour communiquer avec la vraie instance du service, et de fournir un proxy à l’observateur. Actuellement les technologies OSGi, UPnP, DPWS, RFID SNMP et services Web sont supportés par la SAM. Avec ce mécanisme de composition, l’interpréteur d’APEL est découplé de la machine SAM, et c’est par l’intermédiaire des observateurs générés qu’ils sont composés. Autre propriété importante est que les dépendances vers les services utilisés par l’orchestration ne sont connues que par les observateurs, ce qui rend les interpréteurs indépendants des services à l’exécution. De plus, comme nous allons le présenter dans le chapitre d’implémentation les observateurs sont générés par notre environnement de spécification. 6.3.4 Synthèse Nous avons présenté comment, en utilisant la technologie de composition de domaines exécutables, nous avons développé un système d’orchestration de services en se basant sur trois domaines basiques, le contrôle, les données et les services. Nous avons profité de la puissance des mécanismes de composition de domaines, et nous l’avons appliqué dans un domaine limité et bien connu : celui des applications orientées procédé (notamment l’orchestration). La démarche utilisée préconise l’utilisation de trois mécanismes de base du génie logiciel : la séparation de préoccupations, le remonté du niveau d’abstraction et la réutilisation. La séparation de préoccupations est réalisée en définissant chaque préoccupation fonctionnelle comme un domaine tel que le contrôle, la gestion de données et de services, considérés comme divers points de vue au moment de spécifier une application orientée procédé. La remontée de niveau d’abstraction est réalisée par l’utilisation d’une approche de méta-modélisation. Dans chaque domaine un méta-modèle (ou langage de modélisation) est défini. Autour de ce méta-modèle est structuré le concept de domaine exécutable ; un interpréteur fourni la sémantique d’exécution pour les modèles du point de vue. L’interpréteur est aussi utilisé pour piloter l’exécution concrète du domaine, en intégrant les différent outils appartenant au domaine. La notion de composition de domaines exécutables permet d’intégrer les divers points de vue utilisés pour la spécification d’une application, et en plus, fourni le cadre pour avoir des taux de réutilisation importants. La réutilisation concerne d’abord les langages de modélisation (APEL, typage de données, spécification de services). La technique de composition ne modifie pas les méta-modèles originaux, ainsi les modèles existants peuvent aussi être réutilisés et de la 6.4 EXTENSIONS FONCTIONNELLES SUR L’ORCHESTRATION 100 même façon les environnements utilisés pour spécifier ces modèles. Finalement, afin de spécifier la notion d’exécution pour le domaine composite, les interpréteurs de chaque sousdomaine sont réutilisés. Cette caractéristique permet de maintenir la sémantique d’exécution de chaque sous-domaine et d’ajouter la sémantique due à la composition. D’autre part cela permet de réaliser une composition conceptuelle du domaine, puisque la composition des interpréteurs entraîne la composition des outils qui supportent l’exécution concrète de chaque sous-domaine. 6.4 EXTENSIONS FONCTIONNELLES SUR L’ORCHESTRATION La technique de composition de domaines exécutables a été utilisée pour construire un système de base pour l’orchestration de services avec des propriétés comme par exemple : l’indépendance de la technologie des services composés, l’utilisation des formalismes de haut niveau d’abstraction pour décrire l’orchestration, la séparation de préoccupations, car trois points de vues sont utilisés pour spécifier une application par orchestration, des taux importants de réutilisation, au niveau des langages, des modèles, des interpréteurs et des outils supportant la spécification et l’exécution concrète des domaines. Cependant, d’autres besoins peuvent apparaître lorsque le système est utilisé dans des contextes plus spécifiques. Nous pouvons imaginer un système ’orchestration où des tâches doivent être réalisées par des humains, où bien un système de workflow traditionnel pour lequel, en plus des tâches réalisées par des humains, la gestion de documents est requise. Notre approche utilise la technique de composition de domaines non seulement pour définir le système d’orchestration noyau, mais aussi pour réaliser des extensions lorsqu’il s’agit d’intégrer des domaines bien définis et structurés autour d’un méta-modèle à FOCAS. Nous identifions ces types d’extensions comme des extensions fonctionnelles, car un méta-modèle du domaine peut être défini en isolation, c’est-à-dire que des modèles conformes au méta-modèle peuvent être spécifies et exécutés sans avoir à être composé avec d’autres domaines. Avec cette technique nous avons développé des spécialisations du système d’orchestration pour aborder les besoins des deux cas présentés auparavant. Un système d’orchestration avec le support tâches réalisées par des humains a été défini en incluant le domaine de ressources dans l’orchestration de base. Le méta-modèle composite ajoute du comportement dans la machine virtuelle pour effectuer la sélection de la ressource adéquate lorsqu’il s’agit d’une activité réalisée par un humain. De la même façon, un système de workflow a été développé, ce système étend l’orchestration de base avec les domaines de ressources pour le support de tâches réalisées par des humains et le domaine de documents pour la gestion des documents numériques. Des comportements ont été ajoutés dans l’interpréteur afin de supporter l’envoi automatique des documents, l’exécution concrète du domaine fournissant les composants de communication assurant cette fonctionnalité. Dans le diagramme de la Figure 42 les extensions faites sur notre système d’orchestration sont présentées. La structure du diagramme affiche les méta-modèles de chaque domaine qui sont utilisés comme élément autour duquel se structure la composition de domaines. Chaque extension est constituée de la composition du méta-modèle d’orchestration avec d’autres domaines. Plusieurs niveaux peuvent être identifiés dans la figure. En haut, nous plaçons des domaines assez génériques qui peuvent être utilisé dans différents types d‘applications ; ils implémentent des fonctionnalités qui ne recouvrent pas entre elles, par conséquent ce sont des domaines indépendants et réutilisables. Ensuite, au milieu, nous plaçons notre système d’orchestration de base, qui fourni les fonctionnalités pour construire des applications basées sur la notion d’orchestration de services. Ce système est autonome et 101 NOTRE PROPOSITION extensible. En bas, des systèmes de support de procédés plus spécialisés, qui intègrent au système de base des nouvelles fonctionnalités fournis par d’autres domaines génériques. <<metamodel>> APEL << import >> << metamodel >> Data <<metamodel >> Services << metamodel >> Resource << metamodel >> Document << import >> << import>> << import>> << metamodel >> Orchestration <<import>> << import >> Figure 42. 6.4.1 <<import>> <<metamodel>> Orchestration With Human Capabilities <<import>> <<metamodel>> Workflow Applications orientées procédé spécialisées. Synthèse Le mécanisme de composition de domaines exécutables est utilisé pour réaliser notre canevas mais aussi pour l’étendre pour ajouter des capacités fonctionnelles. Comme pour les points de vue de base, l’ajout d’un nouveau point de vue se fait avec une composition avec le contrôle. Cette propriété facilite l’utilisation du mécanisme puisque il est plus simple faire une composition avec un domaine atomique (contrôle) qu’avec un domaine composite (orchestration). Une autre propriété importante de notre mécanisme d’extension est qu’il s’applique aux formalismes mais aussi le runtime supportant l’exécution des applications, et à l’infrastructure existante. Les approches actuelles fournissent quelques mécanismes d’extension, mais généralement seulement au niveau de formalismes ce qui implique la nécessité de réimplémenter les runtimes pour supporter l’exécution des applications qui utilisent ces extensions. Afin de valider le mécanisme d’extension fonctionnelle, nous avons étendu notre système d’orchestration de base pour produire un système d’orchestration permettant que certaines tâches soient réalisées par des humains. Une autre extension a été effectuée pour construire un système de workflow traditionnel supportant, en plus, l’inclusion d’un domaine de gestion de documents. Cependant, ce mécanisme s’applique mal aux propriétés non-fonctionnelles. Nous pensons que la difficulté vient du fait que ces propriétés traversent les domaines qui sont composés, et donc qu’elles ne peuvent pas être exprimées comme un autre domaine autonome et indépendant de la composition. Par la suite nous allons présenter les mécanismes d’extension ajoutés à notre canevas afin de supporter ce type de besoins. 6.5 EXTENSIONS NON-FONCTIONNELLES : LES ANNOTATIONS Un défaut des canevas d’orchestration de services actuels est le manque de support des propriétés non-fonctionnelles. Cette carence est compréhensible si nous considérons que l’approche à services est récente ; les technologies de middleware se sont concentrées sur le support des mécanismes de base. En plus, certains canevas (et modèles) préconisent une séparation de préoccupations, laissant le support des aspects non-fonctionnels de l’orchestration à d’autres canevas ou à des développeurs. Nous nous alignons sur ce dernier courant, en considérant que la séparation des préoccupations permet de gérer la complexité des applications logicielles. Par contre, notre 6.5 EXTENSIONS NON - FONCTIONNELLES : LES ANNOTATIONS 102 intérêt est de fournir des mécanismes d’extension dans FOCAS permettant aux développeurs d’inclure systématiquement le support des aspects non-fonctionnels dans les applications. Nous avons d’abord essayé d’ajouter ce support des aspects non-fonctionnels en utilisant le mécanisme de composition de domaines exécutables. Malheureusement, les aspects non-fonctionnels possèdent certaines caractéristiques qui ne permettent pas d’appliquer cette technique. Parmi ces caractéristiques, nous pouvons mentionner : le fait que ces aspects peuvent traverser plusieurs domaines. Si nous prenons, l’aspect non-fonctionnel de la sécurité comme exemple, une propriété à assurer est la confidentialité des messages échangés entre l’orchestration et les services invoqués. Ainsi, le domaine de données est directement concerné, puisque ce sont les données qui devront être chiffrés pour assurer cette propriété, mais le domaine de services doit fournir des services capables de comprendre ces messages chiffrés, et le domaine de contrôle pour sa part, est chargé de connaître à quel moment chiffrer les messages. Il est difficile de définir un langage de modélisation pour des aspects non-fonctionnels en isolation. Si nous reprenons l’exemple de la sécurité, des concepts comme l’authentification, l’autorisation, la confidentialité font partie des concepts du métamodèle de sécurité, mais ils n’ont pas un sens en eux-mêmes, ils doivent être projetés sur d’autres concepts. Par exemple, parler de la confidentialité en soi n’a guère de sens, par contre parler de la confidentialité d’une donnée bien particulière a un sens. L’ e des domaines exécutables exige la création d’un méta-modèle et d’une machine d’exécution associée, ce qui est très difficile de faire avec un méta-modèle ne contenant que des concepts abstraits sans comportement. Les aspects non-fonctionnels sont généralement dépendants de la plate-forme d’exécution qui va les supporter. Donc l’exécution concrète ne peut pas être facilement définie en s’abstrayant des outils utilisés par la plate-forme d’exécution. Dans cette section, nous allons présenter un mécanisme d’extension de notre canevas en prenant en compte les aspects non-fonctionnels. Nous l’avons appelé extension par annotations. Nous allons présenter comment ce mécanisme est appliqué au niveau des langages (méta-modèle), des modèles et de l’exécution. 6.5.1 Vision générale La technique de composition de domaines exécutables ne peut être appliquée que pour des domaines pour lesquels il est possible de définir un langage de modélisation, de construire un interpréteur du langage et de spécifier des modèles indépendant d’autres domaines. Il existe des domaines pour lesquels il est envisageable de définir un ensemble de concepts du domaine, mais pour lesquels il n’est pas possible de construire un interpréteur ni de définir un modèle en isolation. Nous appelons de tels domaines des domaines abstraits. Nous pouvons alors associer chaque aspect non-fonctionnel avec cette notion de domaine abstrait. Le mécanisme d’extension pour supporter l’ajout d’aspects non-fonctionnels consiste à réaliser la composition d’un domaine abstrait représentant l’aspect non-fonctionnel avec le domaine concret de l’orchestration. Nous n’avons pas exploré la définition de cette composition dans un cadre général. L’idée est d’utiliser ce mécanisme pour ajouter des capacités nonfonctionnelles au système d’orchestration ou à des systèmes de support de procédés créés comme que des extensions du système d’orchestration. L’ajout d’un aspect non-fonctionnel doit être défini aux trois niveaux utilisés pour la composition des domaines exécutables, donc au niveau du langage de modélisation, des modèles et de l’interpréteur d’orchestration, comme présentée dans la Figure 43. L’idée est qu’au niveau des langages de modélisation, les relations entre les concepts de l’aspect nonfonctionnel et ceux du méta-modèle d’orchestration soient exprimées explicitement par des méta-liens. 103 NOTRE PROPOSITION Au niveau des modèles, une technique d’annotation est utilisée. Etant donné que des modèles de l’aspect non-fonctionnel ne peuvent pas être exprimés en isolation, les instances de ces concepts vont annoter des modèles d’orchestration pour indiquer à quelles instances des concepts de l’orchestration seront appliquées les propriétés non-fonctionnelles. Finalement, une technique de génération est utilisée afin de produire le code qui doit s’exécuter lorsque le modèle annoté s’exécute pour assurer les propriétés définies pour ce modèle. Domain e Abstrait Domaine d’orchestration Méta-liens Méta-modèle de l’aspect NF Méta-modèle d’orchestration Conforme à Conforme à Annotations pour le modèle X Annote Générateur Plate-forme Y Code Modèle X d’orchestration Exécute Machine virtuelle Modèle X Figure 43. 6.5.2 Vision générale de la composition par annotations. Scénario d’ajout d’un aspect non-fonctionnel Pour illustrer comment sont réalisées les extensions non-fonctionnelles dans FOCAS, nous allons développer un scénario d’extension qui ajoute l’aspect sécurité à une orchestration de services. L’aspect sécurité est lui-même un champ d’étude vaste et complexe ; nous ne voulons pas rentrer dans les détails mais utiliser ce scénario intuitivement afin d’illustrer comment la composition est réalisée. Dans ce scé trois propriétés doivent être assurées lorsqu’une orchestration de services est exécutée à savoir : l’authentification, la confidentialité et l’intégrité. L’authentification assure que les services sont fournis seulement à ceux qui sont autorisés. La confidentialité assure que les messages sont accessibles seulement pour ceux qui ont droit de les lire, tandis que l’intégrité indique que les messages ne subissent pas de modifications lors de leur transmission. Nous allons reprendre l’exemple du système d’alarme de l’usine de production, pour lui ajouter des propriétés de sécurité. Pour cette orchestration, lorsque le service permettant de calculer la moyenne de température est invoqué, les messages échangés avec ce service doivent rester confidentiels. Puis, à l’invocation du service de stockage de données, on doit assurer l’intégrité de données. Finalement, le service qui réalise des actions sur les équipements de l’usine de production doit être utilisé seulement par les applications authentifiées par le service. 6.5.3 Composition de méta-modèles Le premier pas pour la création d’un domaine abstrait consiste à définir les concepts qui font partie de l’aspect non-fonctionnel. Lorsque les concepts du domaine abstrait sont matérialisés dans un méta-modèle, des méta-liens sont définis entre les concepts du domaine 6.5 EXTENSIONS NON-FONCTIONNELLES : LES ANNOTATIONS 104 abstrait et ceux du domaine d’orchestration. Ces méta-liens sont exprimés de la même façon que dans la composition de domaines exécutables. Le méta-lien exprime une relation entre les concepts des deux domaines, mais la sémantique de la relation est fournie par le générateur de code. D’autre part le méta-lien exprime une contrainte syntaxique, elle indique quels concepts du domaine abstrait peuvent annoter quels concepts du domaine de l’orchestration. Pour notre scénario d’extension avec la sécurité, les concepts d’authentification, de confidentialité et d’intégrité ont été définis. Ensuite, un méta-lien est créé entre le concept d’authentification du méta-modèle de sécurité et le concept d’activité du méta-modèle de contrôle. Il indique que lorsqu’une activité devient active et qu’il existe une opération d’un service associé à l’activité, l’orchestration doit s’authentifier auprès du service avant d’invoquer ses opérations. Un autre méta-lien est défini entre le concept de confidentialité et le concept de produit. Cette relation contient une sémantique indiquant que lorsqu’un service est invoqué, les données marquées par une annotation de ce type doivent avoir la propriété d’intégrité. Finalement, de façon équivalente, une relation est spécifiée entre le concept de confidentialité côté sécurité et celui de produit côté contrôle. La définition de ces méta-liens est présentée dans la Figure 44, les classes en gris correspondent au domaine abstrait de la sécurité alors que celles en jaune correspondent au domaine de contrôle. Le domaine de contrôle possède la particularité d’être le domaine autour duquel se structurent les autres méta-modèles (données et services) au moment de créer le domaine composite de l’orchestration. Cette particularité peut s’expliquer car le méta-modèle de contrôle contient des concepts servant à spécifier les méta-liens avec d’autres méta-modèles. En plus, si nous prenons l’exécution d’une orchestration, la partie contrôle exprime la logique d’évolution de l’exécution, c’est-à-dire que le moteur d’APEL apporte une sémantique proactive à l’exécution pendant que les interpréteurs de données et services ont une sémantique réactive, ce qui fait qu’à l’exécution le mot APEL soit aussi placée au centre de la composition. Nous tirons profit de cette caractéristique car elle nous permet d’utiliser le méta-modèle de contrôle à la place du méta-modèle composite d’orchestration au moment de définir les métaliens. Ce choix s’explique puisque la définition d’un modèle d’un domaine abstrait comme la sécurité par exemple, doit se faire sur les concepts d’un modèle concret. Donc afin de supporter les annotations, des extensions sur les environnements de spécification sont nécessaires. Il est moins complexe de faire ces extensions seulement sur l’environnement de spécification des modèles de contrôle, et ensuite appliquer les annotations sur les concepts d’autres domaines. Par exemple, si dans un modèle de contrôle, un produit (APEL::Product) est annoté avec une annotation d’intégrité, au moment de l’exécution ce sera l’instance de la donnée (Data::Revision) du domaine de données qui devra respecter cette propriété. Méta-modèle de sécurité Méta-modèle de contrôle APEL::A ctivity -name: String Security::Authentication +entry 1 <<meta-link>> -type: String 0..1 1 Security::Integrity <<meta-link>> 0..1 A PEL::Port +name: String +isAutomatic: Boolean +exit 1 0..* APEL::Product 1 -name: String <<meta-link>> Security::Confidentiality 0..1 Figure 44. 0..* 1 Composition de l’aspect sécurité avec le domaine d’orchestration. 105 NOTRE PROPOSITION 6.5.4 Annotations sur les modèles Au niveau des modèles, des instances de concepts du domaine abstrait vont annoter des instances des concepts du modèle de contrôle. Les annotations doivent être conformes aux métaliens définis dans la phase de composition de méta-modèles. Dans notre scénario, une instance du concept Integrity annote le produit average qui sera utilisé par l activité Storage lors de l’invocation de l’opération Save du service Persistence. Une instance du concept Confidentiality annote le produit val qui sera utilisé par l’activité Analysis pour l’invocation de l’opération Average du service Analysis. Finalement, l’activité Processing est annotée avec une instance du concept Authentication. Cette annotation indique que lorsque l’activité invoque l’opération DoAction du service Controler, l’orchestration doit utiliser des certificats pour s’authentifier auprès du service avant de le consommer. Dans la Figure 45 les annotations faites sur le modèle APEL du système d’alarme sont présentées. : Integrity : Confidentiality : Authentication type = user/pass Figure 45. Annotations de sécurité sur le système d’alarme de l’usine de production. Les annotations ne sont pas mélangées avec le modèle de contrôle, un modèle faisant référence au modèle APEL stocke les propriétés. De cette façon, différentes propriétés peuvent être appliqués sur le même modèle ce qui augmente la possibilité de réutilisation du modèle. Par contre, les annotations, elles, sont couplées au modèle de contrôle quelles annotent. 6.5.5 Générateur de code La plate-forme supportant l’exécution des aspects non-fonctionnels est composée de la machine d’exécution d’orchestration et d’une plate-forme spécifique pour l’aspect nonfonctionnel. La responsabilité du générateur de code consiste alors à produire le code qui sera exécuté par la plate-forme spécifique de l’aspect non-fonctionnel, et de fournir aussi un code de coordination entre la machine d’exécution d’orchestration et le code généré. Générateur Coordination Code NF pour X Plate-forme NF Figure 46. Modèle d’orchestration X Code glue Machine d ’ ex é cution orchestr ation Générateur du code de support de l’aspect non-fonctionnel .
31,931
c255c3dba491c9883e1d42aed8d1c821_15
French-Science-Pile
Open Science
Various open science
2,023
Évolution du taux de pauvreté relative des enfants
None
French
Spoken
7,695
17,271
La part des ressortissants extra-communautaires se déclarant en bonne santé a aussi augmenté au Portugal, accroissant l’écart en faveur des RPT. En revanche, l’état de santé perçu des citoyens mobiles de l’UE et des RPT s’est dégradé en France, en République tchèque et en Espagne entre 2010 et 2020. Des facteurs comme le sexe, le statut socioéconomique, le mode de vie et la satisfaction à l’égard du système de santé influencent l’état de santé perçu. Par exemple, les hommes ont tendance à se déclarer en meilleure santé que les femmes. Dans l’ensemble de l’UE, l’écart le plus important entre les hommes et les femmes en termes d’état de santé perçu est observé parmi les RPT et les citoyens mobiles de l’UE. Le niveau d’études est un déterminant encore plus important de l’état de santé perçu. Au sein de l’UE, la part des personnes très instruites – qui sont généralement mieux rémunérées, bénéficient d’une meilleure couverture d’assurance maladie et choisissent généralement leur mode de vie en pleine conscience – se déclarant en bonne santé est supérieure de plus de 20 points de pourcentage à celle des personnes peu instruites. Cet écart lié au niveau d’études est observé chez les RPT, les citoyens mobiles de l’UE et les ressortissants nationaux, mais c’est chez ces derniers qu’il est le plus important (26 points). Principaux résultats • Dans l’ensemble de l’UE, trois RPT sur cinq se déclarent en bonne santé. Cette part, qui est ajustée en fonction de l’âge, est moins élevée que chez les ressortissants nationaux et les citoyens mobiles de l’UE (environ 65 %). Toutefois, dans les pays d’Europe centrale et méridionale (sauf en Espagne), les RPT sont plus susceptibles de se déclarer en bonne santé. • La part des RPT et des nationaux se déclarant en bonne santé a augmenté dans la plupart des pays entre 2010 et 2020. • Les hommes sont plus nombreux que les femmes à se déclarer en bonne santé, en particulier parmi les RPT et les citoyens mobiles de l’UE. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  241 Graphique 8.21. Bon état de santé autodéclaré, selon la nationalité 16 ans et plus, 2020 Ressortissants de pays tiers (taux ajusté pour l’âge) Nationaux Citoyens mobiles de l'UE (taux ajusté pour l’âge) % 100 90 80 70 60 50 40 30 20 10 0 StatLink 2 https://stat.link/fxhgca Graphique 8.22. Évolution de la part d’individus s’autodéclarant en bonne santé, selon la nationalité 16 ans et plus, entre 2010 et 2020 Nationaux Ressortissants de pays tiers (taux ajusté pour l’âge) France République tchèque Espagne Total UE (22) Chypre Allemagne Grèce Belgique Italie Autriche Luxembourg Portugal Royaume-Uni Suisse Norvège -15 -10 -5 Évolutions en points de pourcentage 5 10 15 StatLink 2 https://stat.link/3qh85k Les notes et les sources sont consultables dans leurs StatLinks respectifs. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 242  8.12. Résidents de longue durée Contexte Un résident de longue durée est un ressortissant d’un pays tiers ayant obtenu le statut de résident de longue durée aux termes de la Directive 2003/109/CE du 25 novembre 2003. Conformément à cette directive, le statut de résident de longue durée peut être accordé à tout individu qui n’est pas ressortissant d’un pays de l’UE et qui réside légalement et continuellement sur le territoire d’un État membre depuis cinq ans. Le ressortissant doit disposer d’une assurance maladie et de ressources financières suffisantes garantissant le non-recours à l’assistance sociale. D’autres conditions (comme la maîtrise de la langue du pays d’accueil) peuvent en outre être requises dans certains pays. Les résidents de longue durée jouissent des mêmes droits de séjour que les ressortissants de l’Union européenne, en particulier du droit de résider dans un autre pays de l’UE que celui où ils ont acquis leur statut. Offrir aux RPT les mêmes droits qu’aux ressortissants de l’UE est une condition nécessaire pour éviter que des obstacles juridiques n’entravent leur intégration et pour améliorer l’égalité des chances. Cet indicateur mesure la part des résidents de longue durée parmi les ressortissants de pays tiers titulaires d’un permis de séjour en cours de validité. Les données portent sur les permis de séjour de longue durée au titre de l’UE, ainsi que sur d’autres permis de séjour permanents délivrés par les pays d’accueil, si ces derniers sont plus avantageux que les dispositions de la directive, même s’ils permettent aux titulaires de résider uniquement dans le pays de l’UE qui a délivré le permis (contrairement aux permis de séjour de longue durée de l’UE). Au sein de l’UE, la moitié des RPT bénéficient du statut de résident de longue durée (cadre européen ou national). Toutefois, cette part varie considérablement d’un pays à l’autre. Dans les trois cinquièmes des pays, moins de la moitié des RPT possèdent le statut de résident de longue durée. Cette part est inférieure à un sur cinq au Portugal, en Roumanie, en Croatie et en Pologne. En revanche, en Bulgarie, en France, en Autriche et en Suède, plus de 60 % des RPT bénéficient du statut de résident de longue durée, contre plus de 80 % en Lettonie et en Estonie, où les populations originaires de pays non-membres de l’UE incluent des minorités nationales. Le pourcentage de RPT possédant le statut de résident de longue durée a diminué entre 2016 et 2021 dans près des trois quarts des pays. Les baisses les plus importantes ont été observées dans les pays dont la population non originaire de l’UE vieillit, comme la Lituanie et la Croatie, qui ont enregistré de nombreux décès au sein des anciennes cohortes d’immigrés originaires de pays tiers. Cette baisse est également imputable à la part croissante des arrivées récentes en provenance de pays tiers – en Suède ou en République slovaque, par exemple. En effet, ces immigrés ne peuvent bénéficier du statut de résident de longue durée qu’au bout de cinq ans et, nécessairement, plus les effectifs de RPT sont arrivés récemment, plus la part de résidents de longue durée est faible. Les effectifs de ressortissants de pays tiers reflètent l’évolution des entrées en provenance de pays nonmembres de l’UE, des sorties de ressortissants de pays tiers, et des politiques de citoyenneté (les ressortissants de pays tiers qui ont été naturalisés ne sont plus considérés comme des étrangers). Ces changements, ainsi que les délais variables de mise en œuvre de la directive no 2003/109/CE par les pays, incitent à considérer avec prudence les comparaisons internationales dans le temps. Principaux résultats • La moitié des RPT possèdent le statut de résident de longue durée au sein de l’UE. • Le pourcentage de RPT possédant le statut de résident de longue durée a légèrement diminué entre 2016 et 2021 dans près des trois quarts des pays. Ce recul est probablement imputable au vieillissement de la population extra-communautaire et à la hausse de la mortalité qui en découle, ainsi qu’à la part croissante des immigrés récents venant de pays tiers dans les effectifs totaux de RPT. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  243 Graphique 8.23. Part des ressortissants de pays tiers possédant le statut de résident de longue durée Tous les âges, 2021 % 2021 2016 100 90 80 70 60 50 40 30 20 10 0 StatLink 2 https://stat.link/prwauc Les notes et les sources sont consultables dans leurs StatLinks respectifs. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 244  8.13. Participation aux élections Contexte La participation électorale est la part des votants (avec la nationalité du pays d’accueil) déclarant avoir voté aux dernières élections législatives du pays. Voir l’indicateur 5.2 pour plus de détails. Au sein de l’UE, les ressortissants nationaux nés dans un pays tiers étaient légèrement moins susceptibles de voter aux élections nationales entre 2010 et 2018 que leurs homologues nés dans le pays. La participation électorale des ressortissants extra-communautaires atteint 71 %, celles des personnes nées dans le pays 79 %, et celle des ressortissants nés dans un autre pays de l’UE se situe entre les deux, à 77 %. Le taux de participation des immigrés naturalisés non originaires de l’UE est resté stable entre 2002-10 et 2010-18, alors qu’il a légèrement reculé chez les personnes nées dans le pays. Le taux de participation des ressortissants nationaux nés dans un autre pays de l’UE n’a pas évolué. Dans la plupart des pays de l’UE, la participation électorale des nationaux nés en dehors de l’UE est inférieure à celle des natifs – l’écart est supérieur à 10 points de pourcentage dans les pays ayant accueilli récemment un grand nombre d’immigrés de pays tiers, comme l’Irlande, les pays d’Europe du Sud et les pays nordiques. La participation électorale des immigrés de pays tiers est également très inférieure à celle des natifs dans certains pays d’immigration de longue date, comme l’Allemagne, l’Autriche et les Pays-Bas. En revanche, les immigrés de pays tiers et les natifs enregistrent des taux de participation électorale similaires en France, en Belgique et dans les pays où la majeure partie de la population née en dehors de l’UE est considérée comme d’un pays tiers en raison d’une modification des frontières ou de la présence de minorités nationales – comme en Croatie et dans les pays baltes. Les nationaux nés dans d’autres pays de l’UE affichent des taux de participation électorale supérieurs à ceux de leurs homologues de pays tiers, sauf en Irlande, en Belgique, en Espagne et en France. Toutefois, dans la quasi-totalité des pays, ils votent moins que les natifs. Les personnes très instruites sont plus susceptibles de voter que les personnes peu instruites dans la quasi-totalité des pays de l’UE, l’écart s’établissant à au moins 14 points de pourcentage dans l’ensemble de l’UE, quel que soit le pays de naissance. Tous niveaux d’études confondus, le taux de participation électorale des immigrés naturalisés originaires de pays tiers est inférieur d’environ 8 points de pourcentage à celui des personnes nées dans le pays. Parmi les exceptions notables, citons la France et la Lituanie, où les ressortissants très instruits nés dans un pays non-membre de l’UE participent davantage aux élections que leurs homologues nés dans le pays. En Belgique et en Estonie, en revanche, les immigrés naturalisés originaires de pays tiers qui possèdent un faible niveau d’études sont plus susceptibles de voter que les personnes nées dans le pays, à niveau d’études égal. La corrélation entre la participation électorale et le sexe est moins nette que celle entre la participation électorale et le niveau d’études. Dans l’ensemble de l’UE, les hommes sont plus susceptibles de voter que les femmes. Le taux de participation aux élections des ressortissantes nationales nées dans un pays tiers est toutefois supérieur de 2 points de pourcentage à celui de leurs homologues masculins dans l’ensemble de l’UE, et d’au moins 5 points de pourcentage en Estonie, en Irlande, aux Pays-Bas et en Allemagne. Principaux résultats • Dans la plupart des pays de l’UE, le taux de participation électorale des nationaux nés dans un pays tiers est inférieur à celui de leurs homologues natifs. Dans l’UE, leur participation autodéclarée aux dernières élections nationales est de 71 %, contre 79 % pour les natifs. • Les ressortissants nationaux nés en dehors de l’UE étaient toutefois plus susceptibles de voter aux élections nationales en 2010-18 qu’au cours de la décennie précédente, alors que les personnes nées dans le pays étaient légèrement moins susceptibles de le faire. • Si les hommes votent plus que les femmes dans l’UE, le taux de participation des femmes de pays tiers y est supérieur de 2 points de pourcentage à celui des hommes. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  245 Graphique 8.24. Participation autodéclarée des immigrés naturalisés non originaires de l’UE aux dernières élections nationales, selon le lieu de naissance 18 ans et plus possédant la nationalité du pays d’accueil, 2010-18 Nés dans un pays tiers % Nés dans le pays Nés dans un pays de l’UE 100 90 80 70 60 50 40 30 20 10 0 StatLink 2 https://stat.link/n1l6ov Graphique 8.25. Participation autodéclarée des immigrés non originaires de l’UE possédant la nationalité du pays d’accueil aux dernières élections nationales, selon le niveau d’éducation 18 ans et plus, écart avec les ressortissants nationaux nés dans le pays, 2010-18 Niveau d’éducation faible Niveau d’éducation élevé Évolutions en points de pourcentage 10 5 0 -5 -10 -15 -20 -25 StatLink 2 https://stat.link/4b6qfe Les notes et les sources sont consultables dans leurs StatLinks respectifs. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 246  8.14. Acquisition de la nationalité Contexte Cet indicateur se rapporte à la part des immigrés résidant dans le pays d’accueil depuis au moins 10 ans et qui en ont obtenu la nationalité. En effet, si les pays de l’OCDE et de l’UE sont susceptibles d’imposer des durées de séjour variables aux immigrés avant que ces derniers puissent prétendre à une naturalisation, cette durée ne dépasse généralement pas 10 ans. Voir l’indicateur 5.1 pour de plus amples détails. Dans l’ensemble de l’UE, 57 % des immigrés de pays tiers séjournant dans le pays depuis dix ans (immigrés installés) possèdent la nationalité de leur pays de résidence. La part des ressortissants nationaux nés dans un pays de l’UE est inférieure (44 %). C’est en Suède que la part des immigrés installés nés dans un pays tiers et possédant la nationalité de leur pays d’accueil est la plus forte (plus de 90 %), ainsi qu’en Croatie, en République slovaque et en Lituanie, où les populations immigrées sont façonnées par les minorités nationales. Les taux d’accès à la citoyenneté les plus faibles (moins de 50 %) se trouvent dans les autres pays baltes, les pays d’Europe du Sud (sauf Portugal), la République tchèque et le Luxembourg. Ces pays ont mis en place des procédures de naturalisation plus strictes, n’autorisent pas la double nationalité, ou n’ont commencé à le faire que récemment (voir l’indicateur 5.1). Étant donné que les citoyens mobiles de l’UE bénéficient déjà des droits et privilèges conférés par la citoyenneté de l’UE, ils sont moins susceptibles de demander la nationalité du pays d’accueil que leurs homologues nés en dehors de l’UE. C’est en Irlande, en Espagne et au Luxembourg qu’ils sont le moins susceptibles de le faire. En effet, dans ces pays, moins d’un cinquième des personnes installées nées dans l’UE possèdent la nationalité du pays d’accueil. En revanche, dans la plupart des pays d’Europe centrale et orientale, plus de cinq personnes nées dans l’UE sur six possèdent la nationalité du pays d’accueil – une part bien supérieure à celle de leurs homologues nées en dehors de l’UE. C’est en République tchèque et en Slovénie que l’on observe l’écart le plus important entre la part des ressortissants nationaux nés dans l’UE et celle des ressortissants nationaux nés dans des pays tiers. En République tchèque, la plupart des personnes nées dans l’UE sont nées en République slovaque et ont obtenu la nationalité tchèque après la séparation de la Tchécoslovaquie. Quant à la Slovénie, la plupart des résidents sont nés en Croatie et ont obtenu la nationalité slovène après l’éclatement de la Yougoslavie. Parmi les conditions formelles et informelles d’acquisition de la nationalité par naturalisation, citons une certaine maîtrise de la langue du pays d’accueil, et un niveau défini d’autosuffisance économique. Ces conditions favorisent les immigrés très instruits. Dans tous les pays européens (sauf la Hongrie), les immigrés de pays tiers ayant un niveau d’études élevé on plus souvent la nationalité que leurs homologues peu instruits – 25 points de pourcentage de plus dans l’ensemble de l’UE. L’écart est beaucoup plus réduit – 2 points de pourcentage – en Irlande et en Suède, où la connaissance de la langue du pays d’accueil ne fait pas partie des conditions de naturalisation. Le tableau est plus mitigé pour les personnes nées dans l’UE. Là encore, dans de nombreux pays, le taux d’acquisition de la citoyenneté des personnes très instruites originaires de l’UE est supérieur à celui de leurs homologues peu instruites, mais dans une moindre mesure. Toutefois, on observe la situation inverse en Autriche, en Belgique, aux Pays-Bas, en Suède, au Danemark et en Norvège, ainsi que dans les pays d’Europe centrale et orientale. Principaux résultats • Au sein de l’UE, 57 % des immigrés de pays tiers séjournant dans le pays d’accueil depuis 10 ans en possèdent la nationalité. • Les immigrés non originaires de l’UE sont plus susceptibles de posséder la nationalité du pays d’accueil que leurs homologues nés dans l’UE. Font exception la plupart des pays d’Europe centrale et orientale, où les populations immigrées sont façonnées par les minorités nationales. • Dans la quasi-totalité des pays, les immigrés de pays tiers ayant un niveau d’études élevé sont plus susceptibles d’avoir la nationalité du pays d’accueil que leurs homologues peu instruits. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  247 Graphique 8.26. Acquisition de la nationalité, selon le lieu de naissance 15 ans et plus, immigrés installés (plus de 10 années de résidence) ayant obtenu la nationalité du pays d’accueil, 2020 Nés dans un pays tiers % Nés dans un pays de l’UE 100 90 80 70 60 50 40 30 20 10 0 StatLink 2 https://stat.link/b3dfzi Graphique 8.27. Acquisition de la nationalité, selon le niveau d’éducation et la région de naissance 15 ans et plus, écart entre les immigrés installés très instruits et peu instruits ayant obtenu la nationalité du pays d’accueil, 2020 Nés dans un pays tiers Nés dans un pays de l’UE Évolutions en points de pourcentage 50 40 30 Les immigrés ayant un niveau d’éducation faible ont plus souvent la nationalité que les immigrés ayant un niveau d'éducation élevé. 20 10 0 -10 -20 -30 -40 Les immigrés ayant un niveau d'éducation faible ont plus souvent la nationalité que les immigrés ayant un niveau d'éducation élevé. -50 StatLink 2 https://stat.link/ixmwtj Les notes et les sources sont consultables dans leurs StatLinks respectifs. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 248  8.15. Discrimination perçue Contexte Cet indicateur se rapporte à la proportion d’immigrés qui considèrent faire partie d’un groupe subissant des actes de discrimination fondés sur l’origine ethnique ou raciale, ou la nationalité. Voir l’indicateur 5.6 pour de plus amples détails. Dans l’ensemble de l’UE, un RPT sur cinq a le sentiment d’appartenir à un groupe subissant des actes de discrimination sur la base de l’origine ethnique ou raciale, ou de la nationalité. Ce n’est le cas que d’un étranger ressortissant de l’UE sur douze. Dans quatre pays de l’UE sur cinq, la discrimination perçue est plus répandue chez les RPT que chez les ressortissants de l’UE, les taux les plus bas étant enregistrés pour les deux groupes dans les pays nordiques et en Irlande. C’est en France et en Belgique que la part de ressortissants extra-communautaires déclarant faire l’objet d’actes de discrimination est la plus élevée (une personne sur trois), soit trois fois plus que parmi les étrangers nés dans l’UE. Dans l’ensemble de l’UE, la part des RPT ayant le sentiment d’appartenir à un groupe faisant l’objet d’une discrimination a diminué de 4 points de pourcentage entre 2002-08 et 2012-18, tandis que la part d’étrangers ressortissants de l’UE a légèrement augmenté. La discrimination perçue par les RPT a diminué dans l’ensemble des pays, sauf en France et en Belgique. En France, la part des RPT déclarant faire l’objet d’actes de discrimination a augmenté de 3 points de pourcentage, et de 17 points en Belgique. Cette part a augmenté de 3 points en France et de 5 points en Belgique en ce qui concerne les étrangers ressortissants de l’UE. En revanche, la discrimination autodéclarée par chacun des groupes a reculé en Allemagne et en Autriche. Les motifs de discrimination perçue sont très variables. Dans l’UE, les ressortissants des pays d’Afrique subsaharienne et du Nord sont les plus nombreux à faire état de discrimination en raison de leurs origines (30 et 31 %). Les hommes RPT, les RPT proches de l’âge de la retraite et ceux dont la première langue n’est pas celle du pays d’accueil signalent plus des discriminations que les femmes RPT, les RPT plus jeunes et ceux qui parlent la langue du pays d’accueil. La situation sur le marché du travail ne semble pas être un facteur déterminant – 21 % des RPT, dans l’emploi ou au chômage, se disent victimes de discrimination. La discrimination perçue diminue quand le niveau d’études augmente : 25 % des RPT peu instruits se sentent victimes de discrimination, contre 16 % des RPT très instruits. Dans l’UE, la discrimination perçue diminue avec la durée du séjour, mais légèrement. Tous motifs confondus, la discrimination perçue est moindre chez les citoyens mobiles de l’UE que chez les RPT. Si la situation sur le marché du travail n’a pas d’effet sur la discrimination perçue par les RPT, les citoyens mobiles de l’UE sans emploi font deux fois plus état de discrimination que ceux en emploi. Les parts de citoyens mobiles de l’UE se déclarant victimes de discrimination sont similaires quel que soit le niveau d’études, à l’inverse des RPT. Les RPT peu instruits sont deux fois plus susceptibles d’avoir le sentiment de faire l’objet d’actes de discrimination que leurs homologues possédant la nationalité d’un autre pays de l’UE. Principaux résultats • Dans l’ensemble de l’UE, 20 % des ressortissants de pays tiers déclarent appartenir à un groupe faisant l’objet d’actes de discrimination en raison de son origine ethnique ou raciale ou de sa nationalité, contre 10 % des étrangers ressortissants de l’UE. C’est en Belgique et en France que leur part est la plus importante. L’écart avec les étrangers ressortissants de l’UE y est aussi particulièrement marqué. • La part des RPT qui ont le sentiment d’être victimes de discrimination a diminué entre 2002-08 et 2012-18, sauf en Belgique et en France. • Toutes les catégories de RPT ne sont toutefois pas autant susceptibles de déclarer appartenir à un groupe en butte à la discrimination. La discrimination perçue est en effet moins élevée chez les femmes et les personnes très instruites. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  249 Graphique 8.28. Discrimination autodéclarée, selon la nationalité 15-64 ans, 2012-18 Ressortissants de pays tiers Citoyens mobiles de l'UE % 35 30 25 20 15 10 5 0 StatLink 2 https://stat.link/ytnzvx Graphique 8.29. Discrimination autodéclarée, selon différentes caractéristiques et selon la nationalité 15-64 ans, 2012-18 Ressortissants de pays tiers Citoyens mobiles de l'UE Total Autre Europe Afrique du Nord Afrique sub-saharienne Amérique du Sud et Centrale Amérique du Nord et Océanie Asie Femmes Hommes 15-24 ans 25-54 ans 55-64 ans Niveau d’éducation faible Niveau d’éducation intermédiaire Niveau d’éducation élevé Nés à l’étranger Immigrés récents (<10) Immigrés installés (>=10) Nés dans le pays Inactifs Au chômage En emploi La langue d’origine est une langue étrangère La langue d’origine est la langue du pays hôte % 0 5 10 15 20 25 30 35 StatLink 2 https://stat.link/6tgxcp Les notes et les sources sont consultables dans leurs StatLinks respectifs. LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  251 Annexe A. Caractéristiques de la population et des ménages immigrés Accès aux données des tableaux de l’Annexe A: StatLink 2 https://stat.link/97gfjv LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 252  Tableau A A.1. Taille et composition, 2020/21 et 2011 Population totale Population née à l’étranger Allemagne Population née dans le pays Nés à l’étranger - Évolution depuis 2011 (points de %) Population totale % de la population totale 0-14 65+ Femmes Taille moyenne des ménages 0-14 65+ Femmes Taille moyenne des % de la population (milliers) (Nb de personnes) ménages totale % de la population née à % de la population née dans (Nb de personnes) l’étranger le pays 13 561 16 7 17 49 2 8 62 51 2 3 Femmes % de la population née à l’étranger -1 Australie 7 529 29 6 20 51 3 11 62 50 2 2 1 Autriche 1 797 20 6 14 51 2 6 63 50 2 5 -1 Belgique 2 079 18 7 15 51 2 7 62 50 2 3 -1 -5 Bulgarie 202 3 14 10 50 - 5 64 50 2 2 Canada 7 896 21 5 20 52 3 9 63 50 2 2 0 Chili 1 493 8 14 4 49 4 1 66 54 4 6 -10 Chypre 201 22 6 8 55 2 3 62 50 3 -1 0 Colombie 2 403 5 33 1 51 5 0 66 51 4 5 .. Corée 1 889 4 5 14 45 .. 9 72 50 .. 1 2 Costa Rica 431 8 12 14 54 4 6 65 49 3 -1 .. Croatie 532 13 1 32 51 3 13 64 51 3 0 .. Danemark 617 11 9 10 50 2 4 62 50 2 3 -1 Espagne 7 215 15 3 8 52 3 2 63 50 2 2 4 Estonie 198 15 3 44 56 2 21 65 52 2 -1 -4 États-Unis 45 273 14 5 16 52 3 7 63 51 2 1 2 Finlande 421 8 6 5 48 2 2 61 51 2 3 -2 France 8 571 13 5 25 52 3 10 61 52 2 2 1 Grèce 1 362 13 2 10 52 3 3 62 51 3 1 0 Hongrie 598 6 6 21 49 2 11 65 52 2 2 -6 Irlande 868 18 7 7 50 3 3 61 50 3 1 2 Islande 69 20 .. .. 46 2 .. .. 48 2 9 1 Israël 1 797 20 .. .. 55 2 .. .. 49 4 -5 1 Italie 6 262 10 4 7 53 2 2 61 51 2 1 -1 LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  253 Population née à l’étranger Japon Population née dans le pays Nés à l’étranger - Évolution depuis 2011 (points de %) Population totale % de la population totale 0-14 65+ Femmes Taille moyenne des ménages 0-14 65+ Femmes Taille moyenne des % de la population (milliers) (Nb de personnes) ménages totale % de la population née à % de la population née dans (Nb de personnes) l’étranger le pays 2 887 2 9 7 50 .. 3 59 51 .. 1 Femmes % de la population née à l’étranger -3 Lettonie 230 12 4 46 60 2 22 65 53 2 -2 0 Lituanie 165 6 10 37 44 2 16 66 53 2 -1 -11 Luxembourg 302 48 7 12 49 2 4 59 50 2 9 -1 Malte 120 23 .. .. 42 2 .. .. 48 2 15 -7 Mexique 1 212 1 36 7 52 4 2 67 52 4 0 2 Norvège 878 16 6 12 48 2 7 62 48 2 5 -2 Nouvelle-Zélande 1 272 27 .. .. 51 .. .. .. 51 .. 5 -1 Pays-Bas 2 451 14 5 12 52 2 4 63 50 2 3 0 Pologne 849 2 15 32 51 2 26 65 52 3 0 -6 Portugal 1 263 12 9 9 52 3 3 63 53 2 4 1 République slovaque 202 4 8 28 48 2 11 68 51 3 1 .. République tchèque 903 8 4 16 42 2 8 63 51 2 1 0 .. Roumanie 689 4 37 4 46 .. 2 65 51 3 2 Royaume-Uni 9 482 14 7 11 52 3 5 61 50 2 2 0 Slovénie 293 14 8 17 41 2 6 64 50 2 3 -2 Suède 2 047 20 9 8 50 2 1 64 49 2 5 -2 Suisse 2 630 30 .. .. 51 2 .. .. 51 2 4 -1 Türkiye 2 278 3 17 10 52 .. 25 3 50 .. .. -4 Total OCDE 141 243 10 7 15 51 3 6 64 51 2 1 1 Total UE 53 998 12 6 15 51 2 6 63 51 2 2 0 Note: “...” signifie que la valeur est manquante, “-” signifie que la taille de l’échantillon est en dessous du seuil de significativité. Source : Totaux: Indicateur 2.1; Âge: Indicateur 6.1; Femmes: Indicateur 2.2; Recent migrants: Indicateur 2.8; Taille moyenne des ménages: Indicateur 2.5. StatLink 2 https://stat.link/97gfjv LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 254  Tableau A A.2. Caractéristiques spécifiques de la population née à l’étranger, 2020/21 15-64 ans, total = 100 Régions de naissance Europe Dont: UE Afrique Durée de séjour Asie Amérique latine <5 ans 5 à 9 ans Bonne connaissance de la langue du pays (%) Allemagne 63 65 5 29 2 Amérique du Nord et Océanie 1 ≥10 ans 17 22 61 55 Australie 22 .. 7 56 3 13 17 17 65 72 Autriche 82 56 3 13 2 1 21 19 60 54 Belgique 56 59 28 11 4 1 19 19 62 59 Bulgarie 100 - 0 0 0 0 38 3 59 69 Canada 18 .. 10 55 12 4 14 16 70 .. Chili 3 .. 0 1 96 1 65 17 18 .. Chypre 58 37 4 36 0 2 35 15 50 45 Colombie .. .. .. .. .. .. .. .. .. .. Corée 3 .. 1 93 0 3 48 21 31 50 Costa Rica .. .. .. .. .. .. .. .. .. .. Croatie 100 87 0 0 0 0 2 2 96 97 Danemark 49 69 7 38 3 3 27 21 52 50 Espagne 32 74 19 7 42 0 14 11 75 78 Estonie 91 90 1 7 0 1 11 9 80 19 États-Unis 11 .. 6 30 51 2 13 11 76 72 Finlande 41 70 11 42 3 3 13 26 62 45 France 20 82 61 11 6 2 13 13 74 59 Grèce 80 82 2 15 0 3 6 9 84 58 Hongrie 87 38 2 8 2 1 22 14 65 86 Irlande 68 60 8 15 5 4 24 13 63 80 Islande 71 39 4 15 3 6 19 12 68 .. Israël .. .. .. .. .. .. 7 8 85 .. Italie 56 68 17 16 10 1 8 14 79 60 Japon 2 .. 1 84 11 3 .. .. .. .. Lettonie 53 88 0 39 4 4 7 2 91 32 Lituanie 90 89 0 10 0 1 8 4 88 63 LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  255 Régions de naissance Europe Dont: UE Afrique Durée de séjour Asie Amérique latine <5 ans 5 à 9 ans Bonne connaissance de la langue du pays (%) Luxembourg 83 25 7 6 3 Amérique du Nord et Océanie 1 ≥10 ans 29 19 51 68 Malte .. .. .. .. .. .. 28 33 40 15 Mexique 7 .. 0 3 35 55 .. .. .. .. Norvège 50 61 13 30 4 3 20 25 56 56 Nouvelle-Zélande 7 .. 3 14 1 75 17 19 64 .. Pays-Bas 40 76 18 22 18 3 10 12 78 44 Pologne 100 79 0 0 0 0 .. .. .. 64 Portugal 32 75 35 1 31 2 22 5 73 90 République slovaque 93 43 1 4 0 2 25 8 68 77 République tchèque 84 50 1 11 1 2 19 15 66 73 Roumanie 76 - 3 18 4 0 27 16 57 59 Royaume-Uni 43 .. 16 31 4 5 25 17 58 .. Slovénie 100 81 0 0 0 0 20 13 66 56 Suède 39 76 11 44 5 2 30 20 50 61 Suisse 76 43 7 9 6 2 23 20 58 66 Türkiye 41 69 6 52 0 1 .. .. .. .. Total OCDE 28 67 11 30 26 5 17 14 69 67 Total UE 50 70 19 19 12 1 16 16 68 62 Note: “...” signifie que la valeur est manquante, “-” signifie que la taille de l’échantillon est en dessous du seuil de significativité. Source : Régions de naissance et durée du séjour: Indicateur 2.8 ; Maîtrise de la langue: Indicateur 3.3. StatLink 2 https://stat.link/97gfjv LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  257 Annexe B. Compétences et marché du travail Accès aux données des tableaux de l’Annexe B: StatLink 2 https://stat.link/6dcwnp LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 258  Tableau A B.1. Distribution par niveaux d’éducation, 2020 Pourcentages, 15-64 ans, non scolarisés Nés à l’étranger Nés dans l’UE Allemagne Très faible (CITE 0-1) 16 Faible (CITE 0-2) 36 Élevé (CITE 5+) 26 Australie 4 13 60 Autriche 3 27 Belgique 16 Bulgarie Très faible (CITE 0-1) Nés hors UE Nés dans le pays 8 Faible (CITE 0-2) 25 Élevé (CITE 5+) 30 Très faible (CITE 0-1) 20 Faible (CITE 0-2) 42 Élevé (CITE 5+) 24 .. .. .. .. .. .. 30 0 12 40 6 39 23 33 34 9 23 43 22 40 .. 8 52 .. - - .. Canada .. 8 66 .. .. .. Chili 8 19 38 .. .. Chypre 9 23 38 7 Colombie 10 35 22 Corée 9 28 Costa Rica 41 Croatie Très faible (CITE 0-1) 2 Faible (CITE 0-2) 10 Élevé (CITE 5+) 30 4 20 39 0 11 32 28 5 18 42 - - 5 19 27 .. .. .. .. 12 50 .. .. .. .. 15 30 24 21 36 10 24 39 8 15 45 .. .. .. .. .. .. 22 38 28 31 .. .. .. .. .. .. 3 10 52 69 13 .. .. .. .. .. .. 30 58 25 3 21 21 0 9 29 4 23 19 1 12 24 Danemark 5 28 40 1 13 53 7 34 34 2 18 38 Espagne 14 38 29 5 26 36 18 42 27 6 38 41 Estonie 0 5 49 1 5 61 0 5 47 1 11 39 États-Unis 8 21 43 .. .. .. .. .. .. 0 9 47 Finlande .. .. .. .. .. .. .. .. .. .. .. .. France 17 33 35 13 29 34 17 34 35 4 16 40 Grèce 16 38 15 7 21 24 18 42 13 11 20 33 Hongrie 1 14 39 2 15 35 .. 11 46 1 15 25 Irlande 3 8 56 3 6 49 3 10 61 5 18 45 Islande 0 26 38 .. 21 39 0 33 38 0 25 41 Israël .. 11 56 .. .. .. .. .. .. .. 13 41 Italie 9 50 12 4 37 13 11 56 12 4 36 20 Japon 1 12 47 .. .. .. .. .. .. 1 5 53 Lettonie .. 7 38 .. 13 35 .. 6 39 1 9 36 LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  259 Nés à l’étranger Très faible (CITE 0-1) 1 Faible (CITE 0-2) Luxembourg 11 Malte Nés dans l’UE Très faible (CITE 0-1) Faible (CITE 0-2) Nés dans le pays Très faible (CITE 0-1) 4 1 6 Élevé (CITE 5+) 46 1 4 Élevé (CITE 5+) 38 1 5 Élevé (CITE 5+) 43 26 52 12 26 51 7 25 53 3 20 32 1 31 42 .. .. .. .. .. .. 4 45 23 Mexique 11 35 25 .. .. .. .. .. .. 20 51 17 Norvège 4 20 42 3 11 46 5 27 39 0 18 43 Nouvelle-Zélande .. 12 49 .. .. .. .. .. .. .. 27 29 Pays-Bas 12 27 38 5 17 48 15 30 35 4 18 42 Pologne 1 3 60 .. 2 63 1 3 56 1 7 31 Portugal 11 28 34 8 25 39 11 28 33 26 46 26 République slovaque .. 6 37 .. 6 29 .. 6 48 1 8 25 République tchèque .. 12 34 .. 11 34 .. 12 34 0 6 24 Roumanie 1 8 61 .. - - - 2 64 4 21 18 Royaume-Uni 3 18 50 1 17 45 4 19 53 1 23 39 Slovénie 1 20 18 0 12 31 1 23 13 1 9 37 Suède 9 29 42 1 15 53 12 34 38 0 9 41 Suisse 5 22 42 4 18 48 7 28 35 1 5 43 Türkiye .. 43 27 .. .. .. .. .. .. .. 59 20 Total OCDE 9 25 40 5 23 36 14 36 31 6 23 36 Total UE 13 35 29 6 25 31 16 40 27 4 20 32 Lituanie Faible (CITE 0-2) Nés hors UE Élevé (CITE 5+) 38 Très faible (CITE 0-1) Faible (CITE 0-2) Note: “...” signifie que la valeur est manquante, “-” signifie que la taille de l’échantillon est en dessous du seuil de significativité. Source : Indicateur 3.1. StatLink 2 https://stat.link/6dcwnp LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 260  Tableau A B.2. Distribution par niveaux d’éducation et par genre, 2020 Pourcentages, 15-64 ans, non scolarisés Hommes nés à l’étranger Femmes nées à l’étranger Interm. (CITE 34) 39 Élevé (CITE 5+) Allemagne Faible (CITE 0-2) 36 Australie 13 31 Autriche 26 Belgique Hommes nés à l’étranger Interm. (CITE 34) 38 Élevé (CITE 5+) 25 Faible (CITE 02) 36 56 13 24 46 28 29 33 34 33 Bulgarie - - Canada 9 Chili Chypre Femmes nées à l’étranger Interm. (CITE 34) 57 Élevé (CITE 5+) 27 Faible (CITE 02) 9 63 20 47 39 33 9 33 31 35 - - - 27 64 8 18 46 37 25 40 35 Colombie 38 43 Corée 28 42 Costa Rica 71 Croatie Danemark Immigrés récents (<5 ans) Interm. (CITE 34) 62 Élevé (CITE 5+) 33 Faible (CITE 02) 10 Interm. (CITE 34) 28 Élevé (CITE 5+) 28 Faible (CITE 02) 38 33 19 35 46 8 22 58 33 14 70 54 32 23 39 20 44 36 38 16 37 48 27 26 - 19 60 47 21 19 48 33 - - 24 68 14 - 43 43 11 31 58 9 21 70 20 41 40 21 39 40 31 47 23 28 47 25 .. .. .. 16 46 38 14 34 52 30 36 33 20 32 44 30 29 38 25 41 34 25 35 35 30 .. .. .. 33 8 38 54 11 39 50 .. .. 17 12 66 .. 21 13 61 17 22 56 18 27 .. .. .. 15 64 21 30 32 38 26 52 21 11 70 20 14 57 29 - - - 25 32 43 20 47 32 16 40 44 31 20 49 Espagne 40 33 Estonie 7 53 27 36 33 31 41 21 37 34 21 44 26 32 42 41 4 40 57 14 57 29 7 44 49 4 30 États-Unis 22 66 36 41 20 35 45 10 48 42 8 41 51 19 30 Finlande 51 .. .. .. .. .. .. .. .. .. .. .. .. 39 30 31 France 30 36 34 36 28 36 17 47 36 15 41 44 32 27 41 Grèce 45 45 10 33 49 19 19 49 32 20 45 35 56 30 13 Hongrie 13 52 35 14 44 42 14 65 21 17 54 30 15 48 37 Irlande 9 37 54 8 34 58 21 39 41 14 37 49 6 23 71 Islande 28 36 35 24 34 41 27 39 34 23 29 49 30 31 39 Israël 11 36 52 11 31 58 15 48 37 11 43 46 16 26 59 Italie 55 36 9 45 39 15 37 46 17 34 44 23 53 29 18 Japon 11 39 49 13 42 45 7 42 51 4 41 55 .. .. .. Lettonie 12 54 34 3 55 41 13 62 25 6 47 47 2 27 71 34 LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  261 Hommes nés à l’étranger Femmes nées à l’étranger Faible (CITE 0-2) 4 Interm. (CITE 34) 59 Élevé (CITE 5+) Luxembourg 26 22 Malte 32 Mexique Hommes nés à l’étranger Interm. (CITE 34) 56 Élevé (CITE 5+) 37 Faible (CITE 02) 4 52 25 23 29 39 29 36 36 28 Norvège 21 42 Nouvelle-Zélande 13 Pays-Bas 28 Pologne Portugal République slovaque République tchèque Roumanie Femmes nées à l’étranger Interm. (CITE 34) 58 Élevé (CITE 5+) 40 Faible (CITE 02) 7 51 21 49 26 45 45 34 44 22 37 20 33 41 46 12 36 36 26 3 42 55 30 42 28 9 53 38 10 58 32 - - - Royaume-Uni 19 34 Slovénie 15 Suède 31 Suisse Immigrés récents (<5 ans) Interm. (CITE 34) 46 Élevé (CITE 5+) 35 Faible (CITE 02) 3 30 20 45 33 22 45 50 33 17 48 19 44 37 51 29 34 40 18 3 33 64 26 35 39 4 61 36 14 50 36 - - 47 18 71 14 31 38 22 36 Türkiye 43 Total OCDE 26 Total UE 36 Lituanie Interm. (CITE 34) 41 Élevé (CITE 5+) 51 Faible (CITE 02) 4 35 12 14 75 31 24 25 25 50 51 32 17 .. .. .. 37 16 35 48 16 48 35 46 25 25 43 32 0 0 0 41 42 18 39 43 23 22 55 8 67 25 7 56 37 .. .. .. 50 30 20 42 27 31 15 44 41 7 72 20 9 61 30 0 67 33 6 74 21 7 66 27 10 52 38 - 19 65 16 22 59 19 - - - 30 52 24 40 37 22 37 41 17 31 52 26 52 22 8 62 30 9 47 44 18 64 18 27 27 46 10 57 33 8 42 50 39 16 45 42 23 34 43 4 49 47 6 56 38 11 27 62 32 24 43 29 28 55 24 21 64 17 19 .. .. .. 36 38 24 34 42 23 43 34 23 39 38 23 29 47 37 27 34 35 30 20 51 29 19 47 34 32 29 39 55 Note: "..." signifie que la valeur est manquante, "-" signifie que la taille de l'échantillon est en dessous du seuil de significativité; au Canada, en Corée et en Nouvelle-Zélande, les migrants récents sont ceux qui résident dans leur pays de résidence depuis moins de 10 ans. Source : Indicateur 3.1. StatLink 2 https://stat.link/6dcwnp LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023 262  Tableau A B.3. Distribution par niveaux d’éducation, évolution entre 2010 et 2020 Évolution en points de pourcentage, 15-64 ans, non scolarisés Nés à l’étranger Nés dans l’UE Faible (CITE 0-2) 1 Élevé (CITE 5+) Allemagne Très faible (CITE 0-1) 2 6 Très faible (CITE 0-1) .. Faible (CITE 0-2) .. Australie -3 -8 15 0 .. Autriche -1 -5 13 0 Belgique Bulgarie -9 -8 5 .. - - Canada .. -4 Chili .. Chypre Colombie Nés hors UE Élevé (CITE 5+) .. Très faible (CITE 0-1) .. Faible (CITE 0-2) .. .. 0 .. -1 15 -1 -8 -11 8 .. - - 10 .. .. -6 12 .. -1 -6 3 .. .. .. Corée 1 -1 Costa Rica .. Croatie Nés dans le pays Élevé (CITE 5+) .. Très faible (CITE 0-1) 0 Faible (CITE 0-2) 0 Élevé (CITE 5+) .. -3 -10 9 -6 10 0 -4 15 -10 -7 3 -5 -10 7 .. - - 1 -3 5 .. .. .. .. .. -5 9 .. .. .. .. .. .. -13 7 0 -2 1 -2 -9 5 -8 -10 11 .. .. .. .. .. .. .. .. .. 7 0 .. .. 0 .. .. -4 -8 9 .. .. .. .. .. .. .. .. .. .. .. -4 -9 6 -2 -1 1 -4 -9 4 -2 -9 6 Danemark 3 0 7 1 0 5 3 0 8 2 -8 7 Espagne -9 -8 8 -5 -6 9 -11 -10 9 -12 -11 10 4 Estonie .. .. .. .. .. .. .. .. .. .. .. .. États-Unis -4 -8 9 0 .. .. 0 .. .. 0 -2 7 Finlande .. .. .. .. .. .. .. .. .. .. .. .. France -8 -13 11 -14 -15 9 -7 -13 11 -5 -11 11 Grèce -8 -11 1 -4 -11 5 -9 -12 1 -12 -16 9 Hongrie 0 -3 7 1 -1 4 .. -6 10 0 -4 6 Irlande -3 -13 10 -4 -18 9 0 -2 -4 -7 -11 11 Islande -2 -8 6 .. -9 5 -3 -9 9 -1 -14 12 Israël .. .. .. .. .. .. .. .. .. .. .. .. Italie -3 4 1 -2 3 0 -4 3 1 -7 -10 6 Japon .. .. .. .. .. .. .. .. .. .. .. .. Lettonie .. -1 11 .. -7 12 .. -1 11 0 -5 11 Lituanie 0 0 8 -1 0 0 0 0 7 0 -4 12 LES INDICATEURS DE L’INTÉGRATION DES IMMIGRÉS 2023 © OCDE/UNION EUROPÉENNE 2023  263 Nés à l’étranger Nés dans l’UE Très faible (CITE 0-1) -4 Faible (CITE 0-2) 0 Élevé (CITE 5+) 9 Très faible (CITE 0-1) -4 Faible (CITE 0-2) 0 Malte -3 -19 16 -4 .. Mexique .. 3 -10 .. Norvège 3 -7 6 Nouvelle-Zélande .. .. Pays-Bas -4 Luxembourg Nés hors UE Élevé (CITE 5+) Nés dans le pays 9 Très faible (CITE 0-1) -2 Faible (CITE 0-2) 3 Élevé (CITE 5+) 10 Très faible (CITE 0-1) -2 Faible (CITE 0-2) 0 Élevé (CITE 5+) .. .. .. .. -12 -21 9 .. .. .. .. .. .. -12 2 2 -4 7 3 -8 5 0 -3 9 .. .. .. .. .. .. .. .. .. .. -11 11 -6 -11 13 -3 -10 10 -3 -9 11 6 Pologne 0 -5 25 ..
5,358
https://openalex.org/W4367672716
OpenAlex
Open Science
CC-By
2,023
De l’indemnisation à la prévention des cancers professionnels : existe-il un conflit de logique normative ?
Arzhelenn Le Diguerher
French
Spoken
16,541
28,625
De l’indemnisation à la prévention des cancers professionnels : existe-il un conflit de logique normative ? Volume 2, Number 1, 2021 Volume 2, Number 1, 2021 Document generated on 10/23/2024 2:14 p.m. Document generated on 10/23/2024 2:14 p.m. See table of contents © Arzhelenn Le Diguerher, 2021 This document is protected by copyright law. Use of the services of Érudit (including reproduction) is subject to its terms and conditions, which can be viewed online. https://apropos.erudit.org/en/users/policy-on-use/ This article is disseminated and preserved by Érudit. Érudit is a non-profit inter-university consortium of the Université de Montréal, Université Laval, and the Université du Québec à Montréal. Its mission is to promote and disseminate research. https://www.erudit.org/en/ © Arzhelenn Le Diguerher, 2021 This document is protected by copyright law. Use of the services of Érudit (including reproduction) is subject to its terms and conditions, which can be viewed online. This document is protected by copyright law. Use of the services of Érudit (including reproduction) is subject to its terms and conditions, which can be viewed online. Article abstract The management of occupational risks can be examined in two aspects: the prevention in the workplace and the compensation program of the accidents and occupational diseases. Intrinsically linked, these two approaches are however regularly put in opposition by different actors in the field. This contribution explores the relationship between the logics of prevention and compensation in the French legislation. Presented as antagonistic, they are no less complementary. The demonstration is based on the study of occupational cancers, an example which par excellence makes it possible to question the difficulties in linking these two aspects. La pluralité de normativités en matière de santé et de sécurité du travail De l’indemnisation à la prévention des cancers professionnels : Existe-il un conflit de logique normative? Arzhelenn Le Diguerher 1 RESUMÉ La gestion des risques professionnels relève de deux aspects : celui de la prévention sur les lieux de travail et celui de l’indemnisation au titre du régime sur les accidents du travail et des maladies professionnelles. Intrinsèquement liées, ces deux démarches sont pourtant régulièrement mises en opposition par différents acteurs du domaine. La présente contribution explore les rapports entre les logiques de prévention et d’indemnisation dans la réglementation française. Présentées comme antagoniques, elles n’en sont pas moins complémentaires. La démonstration s’appuie sur l’étude des cancers professionnels, exemple par excellence qui permet d’interroger les difficultés à relier ces deux aspects. MOTS-CLÉS : Risques professionnels ; maladie ; cancer ; indemnisation ; prévention This article is disseminated and preserved by Érudit. Érudit is a non-profit inter-university consortium of the Université de Montréal, Université Laval, and the Université du Québec à Montréal. Its mission is to promote and disseminate research. 1 Doctorante en Droit privé, Université Sorbonne Paris Nord, IRIS KEYWORDS : Occupational hazards; disease; cancer; compensation; prevention 1 Memmi, S., Rosankis, É., Sandret, N., Duprat, P., Léonard, M., Morand, S., & Tassy, V. (2020). L’évolution des expositions des salariés aux risques professionnels sur les vingt dernières années : Les premiers résultats de l’enquête Sumer 2017. Archives des Maladies Professionnelles et de l'Environnement, 81(1), 69. https://doi.org/10.1016/j.admp.2019.12.024 2 Cancers d’origine professionnelle - Santé et sécurité au travail — EU-OSHA. (s. d.). European Agency for Safety & ; Health at Work - Information, statistics, legislation and risk assessment tools. https://osha.europa.eu/fr/themes/work-related-diseases/work-related-cancer 3 Eliminating occupational cancer in Europe and globally — ETUI. (s. d.). European Trade Union Institute. https://www.etui.org/publications/working-papers/eliminating-occupational-cancer-in-europe-and-globally 4 Le « Plan cancer » est un document d’orientation stratégique pluriannuel du gouvernement pour la lutte contre le cancer. Ministère des Solidarités et de la Santé. https://solidarites-sante.gouv.fr/IMG/pdf/2014-02- 03_Plan_cancer-2.pdf 5 Article L.461-1 du Code de la sécurité sociale. 6 Caisse nationale d’assurance maladie. (2019). Cancers reconnus d’origine professionnelle : Évolution statistique, actions de prévention et d’accompagnement des salariés exposés (Rapport annuel Santé Travail : enjeux et actions). 7 Thébaud-Mony, A. (1991). De la connaissance à la reconnaissance des maladies professionnelles en France : Acteurs et logiques sociales (Document travail-emploi) (French Edition). Documentation française ; Marchand, A. (2020). Les ressorts du non-recours au droit de la réparation en maladie professionnelle. Droit social, (12), 983. ABSTRACT The management of occupational risks can be examined in two aspects: the prevention in the workplace and the compensation program of the accidents and occupational diseases. Intrinsically linked, these two approaches are however regularly put in opposition by different actors in the field. This contribution explores the relationship between the logics of prevention and compensation in the French legislation. Presented as antagonistic, they are no less complementary. The demonstration is based on the study of occupational cancers, an example which par excellence makes it possible to question the difficulties in linking these two aspects. KEYWORDS : Occupational hazards; disease; cancer; compensation; prevention KEYWORDS : Occupational hazards; disease; cancer; compensation; prevention 1 Doctorante en Droit privé, Université Sorbonne Paris Nord, IRIS Cancers professionnels 134 7 Thébaud-Mony, A. (1991). De la connaissance à la reconnaissance des maladies professionnelles en France : Acteurs et logiques sociales (Document travail-emploi) (French Edition). Documentation française ; Marchand, A. (2020). Les ressorts du non-recours au droit de la réparation en maladie professionnelle. Droit social, (12), 983. p 5 Article L.461-1 du Code de la sécurité sociale. 6 Caisse nationale d’assurance maladie. (2019). Cancers reconnus d’origine professionnelle : Évolution statistique, actions de prévention et d’accompagnement des salariés exposés (Rapport annuel Santé Travail : enjeux et actions). ̀ 8 Morin, J. (2018). Changer le régime d'indemnisation des accidents du travail et des maladies professionnelles ? RDSS, (04), 633. 9 Del Sol, M. (2015). L'indemnisation des victimes d'accidents du travail et de maladies professionnelles, scandale (persistant) de nos sociétés modernes. Droit social, (04), 292. 10 Pellet, R. (2006). L'entreprise et la fin du régime des accidents du travail et des maladies professionnelles. Droit social, (04), 402 ; Morin, J. (2018). Changer le régime d'indemnisation des accidents du travail et des maladies professionnelles ? RDSS, (04), 633. 11 Keim-Bagot, M. (2016). De l’accident du travail à la maladie : la métamorphose du risque professionnel. Enjeux et perspectives. Nouvelle Bibliothèques des thèses, éd. Dalloz. 12 Fantoni Quinton, S., & Legros, B. (2010). La logique de réparation entrave-t-elle la démarche de prévention des lésions professionnelles ? RDSS, (04), 640. Cancers professionnels 135 Considéré comme irréformable8, le système de réparation des accidents du travail et des maladies professionnelles (ATMP) est critiqué depuis de nombreuses années déjà. Tandis que beaucoup pointent un retard sur le niveau d’indemnisation auquel peuvent prétendre les victimes9, d’autres se prévalent d’un manque d’efficacité en termes de prévention pour interroger la légitimité du maintien d’un tel régime10. L’évolution de la notion de risque professionnel, sa métamorphose juridique11, combinée à l’émergence d’un paradigme principalement axé sur la prévention primaire du risque, semble avoir contribué à mettre en opposition les deux logiques initialement liées12. La question se pose dès lors de savoir pourquoi ces deux logiques normatives sont jugées antagoniques (1) alors qu’elles gagneraient à être davantage pensées comme complémentaires (2) afin de pouvoir contribuer à réduire de manière effective l’incidence des cancers professionnels. Introduction D’un point de vue normatif et institutionnel, la gestion du risque cancérogène au travail est assurée au travers de deux aspects : celui de la prévention des risques et celui de l’indemnisation des maladies professionnelles. Du côté de la prévention, d’abondantes réglementations européennes et nationales ont été édictées pour limiter l’exposition des salarié·es aux cancérogènes présents sur les lieux de travail. Malgré cela, de nombreux « toxiques légaux » continuent d’être mobilisés dans les procédés de travail : en France, près de 10 % des salarié·es sont ainsi exposé·es à au moins un cancérogène dans leur activité1. D’après l’Agence européenne pour la sécurité et la santé au travail, environ 120 000 des cas de cancers qui surviennent chaque année dans l’Union européenne (UE) seraient attribuables aux agents cancérogènes au travail, entraînant approximativement 80 000 décès par an2, voire 102 000 selon d’autres estimations3. En France, le nombre de cas de cancer attribués à une origine professionnelle est variable selon les études : il était estimé entre 14 000 et 30 000 cas annuels dans le dernier Plan cancer4. Sur le versant de la reconnaissance juridique, par le régime d’indemnisation des maladies professionnelles5, le nombre de cancers reconnus comme étant d’origine professionnelle est bien inférieur à cette estimation, il ne dépasse pas les 2 000 cas chaque année6. Ce phénomène de sous-reconnaissance est bien connu et documenté par de nombreux travaux en sciences sociales7. Cependant, aucune solution durable n’a pu être apportée à ce problème. ) 7 Thébaud-Mony, A. (1991). De la connaissance à la reconnaissance des maladies professionnelles en France : Acteurs et logiques sociales (Document travail-emploi) (French Edition). Documentation française ; Marchand, A. (2020). Les ressorts du non-recours au droit de la réparation en maladie professionnelle. Droit social, (12), 983. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 135 J. (2018). Changer le régime d'indemnisation des accidents du travail et des maladies professionnelles 04), 633. 13 Loi du 21 avril 1810, suivi d’un décret du 3 janvier 1813, dit « Code des mineurs » prévoyant des dispositions sur la prévention des accidents et les moyens de secours. 14 Et notamment en 1840 par le célèbre rapport du docteur Villermé, Villermé, L. R. (1840). Tableau de l'état physique et moral des ouvriers employés dans les manufactures de coton, de laine et de soie ... J. Renouard et c. 15 Loi du 22 mars 1841 interdisant notamment le travail des enfants de moins de 8 ans. 16 Loi du 19 mai 1874 interdisant le travail des enfants de moins de 12 ans et limitant à 12 heures le travail pour les enfants au-delà de cet âge. 17 Loi du 2 novembre 1892 sur le travail des enfants, des filles et de femmes dans les établissements industriels. 18 La loi de 1841 prévoyait déjà la mise en place d’inspecteur·trices, tandis que celle de 1874 créait 15 postes d’inspecteur·trices rémunéré·es par l’État. 19 Cass.civ. 27 avril 1877, S. 1878 I, p. 413. 1. La prévention et l’indemnisation, des logiques antagoniques La littérature juridique a longtemps salué le compromis historique ayant donné naissance au régime sur les accidents du travail en 1898, étendu aux maladies professionnelles en 1919. Après plus d’un siècle, l’apport de ces lois est toujours souligné au regard du contexte social dans lequel elles sont nées. En revanche, elles sont rétrospectivement analysées comme ayant constitué un frein au développement d’une prévention des risques sur les lieux de travail (1.1). Si cette critique est fondée, au moins partiellement, il convient toutefois de la replacer dans l’évolution globale du système et de resituer le rôle respectif de chacune des logiques de prévention et d’indemnisation dans la reconnaissance juridique du risque au regard des finalités qui leur sont propres (1.2). Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 136 22 Devinck, J.-C. (2010). La lutte contre les poisons industriels et l’élaboration de la loi sur les maladies professionnelles. Sciences sociales et santé, 28(2), 65–93. 20 Cité par Sargos, P. (2003). L’évolution du concept de sécurité au travail et ses conséquences en matière de responsabilité. JCP, Semaine Sociale Lamy édition générale, (4), 121. 21 Ibid 1.1. La logique de réparation comme frein au développement de la prévention Parmi les griefs récurrents émis à l’encontre du régime d’indemnisation des ATMP figurent deux critiques majeures : d’une part, l’instauration du régime de réparation aurait annihilé les initiatives naissantes à la fin du XIXe siècle en matière de prévention des risques professionnels et, d’autre part, le système de tarification censé relier les deux logiques manquerait d’efficacité. Pour comprendre ces reproches, il faut revenir sur l’histoire de l’émergence du régime à la fin du XIXe siècle, plus particulièrement celui des maladies professionnelles, jusqu’à leur prise en charge actuelle par la Sécurité sociale. En France, les premières législations intéressant la santé au travail vont d’abord concerner des catégories spécifiques de travailleurs. Parmi celles- ci, on retrouve dès 1810 un ensemble de mesures destinées à la protection des ouvriers mineurs13. Puis, à la suite des grandes enquêtes hygiénistes sur les conditions de travail des ouvriers14, le travail des enfants est réglementé à partir de 184115, et de nouveau en 187416. Ce sera ensuite au tour du travail des femmes de se voir encadré par la loi du 2 novembre 189217. À l’occasion de cette dernière loi, un corps de fonctionnaires d’inspecteur·trices du travail est créé18 pour en contrôler le respect. Le 12 juin 1893, une nouvelle loi étend les mesures de protection à l’ensemble des travailleur·euses. Cette loi est considérée comme le véritable point de départ de la réglementation de l’hygiène et de la sécurité au travail. Elle introduit notamment pour la première fois un devoir général de prévention à la charge de l’employeur. Quelques années plus tôt, les juges de la Cour de cassation avaient déjà pu inviter les employeurs « à prévoir les causes non seulement, mais simplement possibles d’accidents et prendre toutes les mesures qui seraient de nature à les éviter19 », sous peine de voir leur responsabilité pour faute engagée. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 137 Cancers professionnels 137 1 (2021) Cancers professionnels 138 instaurer une responsabilité sans faute de l’employeur. La loi sur les accidents du travail prévoit ainsi que « Les accidents survenus par le fait du travail, ou à l’occasion du travail, aux ouvriers et employés […], donnent droit, au profit de la victime ou de ses représentants, à une indemnité à la charge du chef d’entreprise, à la condition que l’interruption de travail ait duré plus de quatre jours ». instaurer une responsabilité sans faute de l’employeur. La loi sur les accidents du travail prévoit ainsi que « Les accidents survenus par le fait du travail, ou à l’occasion du travail, aux ouvriers et employés […], donnent droit, au profit de la victime ou de ses représentants, à une indemnité à la charge du chef d’entreprise, à la condition que l’interruption de travail ait duré plus de quatre jours ». Ainsi le « deal en béton23 » est-il conclu admettant, d’un côté, la reconnaissance « automatique » d’une responsabilité patronale sans démonstration de faute par le jeu d’une présomption d’imputabilité de l’accident au travail, de l’autre, une limitation de cette responsabilité à une réparation qui ne sera que forfaitaire. Le préjudice indemnisé n’est dès lors pas l’atteinte corporelle du travailleur en tant que telle, mais l’incidence de celle-ci sur sa capacité à se procurer un gain professionnel. Une immunité de responsabilité civile est instaurée à l’égard de chacune des parties24. Cette immunité n’est toutefois pas totale puisque le texte de loi prévoit qu’il sera toujours possible d’engager la responsabilité de l’employeur en cas de faute intentionnelle ou de faute inexcusable. De même, l’ouvrier intentionnellement ou inexcusablement fautif se verra privé totalement ou partiellement d’indemnisation25. La loi sur la réparation des accidents du travail n’est initialement pas assortie d’une obligation d’assurance des employeurs, mais nombre d’entre eux vont souscrire une telle garantie pour se prémunir des conséquences financières de ce nouveau principe de responsabilité. Prenant acte de cette initiative, une loi du 31 mars 1905 établit qu’en cas d’action de la victime, l’assureur se substitue à l’employeur légalement responsable. Les accidents du travail deviennent par cette loi officiellement « prévisibles, assurables, calculables26 » : ils sont alors considérés comme une fatalité, comme irréductiblement inévitables. 23 Dupeyroux, J.-J. (1998). Centenaire de la loi du 9 avril 1898 sur les accidents du travail et les maladies professionnelles. Un deal en béton ? Droit social, (07-08), 631. 24 Un amendement pour inclure les maladies professionnelles avait été déposé par le député Camille Raspail en 1888, mais cette proposition sera vite écartée. 25 V. Infra 26 Ewald, F. (1986). L'Etat providence. Grasset. 27 Ibid. Cancers professionnels 137 L’article 2 de la loi prévoit ainsi que les établissements « doivent être tenus dans un état constant de propreté et présenter les conditions d'hygiène et de salubrité nécessaires à la santé du personnel ». L’article 3 renvoie quant à lui aux règlements d’administration publique le soin de déterminer « les mesures générales de protection et de salubrité applicables à tous les établissements assujettis, notamment en ce qui concerne l'éclairage, l'aération ou la ventilation […] l'évacuation des poussières et vapeurs, les précautions à prendre contre les incendies, etc. » Le premier décret d’application de cette loi, en date du 10 mars 1894, prescrivait des mesures d’hygiène afférentes aux poussières et à l’aération des locaux. Selon ce texte, ces-derniers devaient être « largement aérés […]. Les poussières [devaient être] évacuées au-dessus de l'atelier au fur et à mesure de leur production […] avec une ventilation aspirante énergique […] ». Il indiquait en outre que « l'air des ateliers [devait être] renouvelé de façon à rester dans l'état de pureté nécessaire à la santé des ouvriers20 ». En 2003, faisant allusion à ces dispositions anciennes, l’ancien président de la chambre sociale de la Cour de cassation, Pierre Sargos, énoncera « que la tragédie de l'amiante aurait fait moins de victimes si ces textes avaient été scrupuleusement appliqués par les industriels21 ». Les revendications des mouvements ouvriers pour l’amélioration de l’hygiène et de la sécurité contribuent à l’adoption de la loi de 1893 susmentionnée, mais le succès est pour eux incomplet, puisqu’ils réclamaient également de longue date la mise en place d’un système d’indemnisation des accidents du travail et des maladies professionnelles. Les pathologies professionnelles étaient en effet déjà identifiées depuis longtemps par les enquêtes hygiénistes, mais aussi par le savoir de l’expérience des ouvrier·ères eux-mêmes22. Ainsi dès l’origine de la réglementation, il existe un lien étroit entre les logiques de prévention des risques et leur indemnisation, et non une opposition. La loi du 9 avril 1898, qui naît après dix-huit ans de débats parlementaires, satisfait en partie ces revendications en instaurant un système juridique novateur pour l’indemnisation des accidents du travail. Alors que les principes classiques de la responsabilité civile ne parvenaient pas, ou mal, à couvrir les situations d’accidents du travail, la nouvelle législation va s’émanciper du fondement traditionnel de la faute, cause du préjudice, et Communitas, Vol. 2, No. Cancers professionnels 137 En partageant la charge du risque entre l’employeur et le salarié victime de l’accident (ou ses ayants droit en cas d’accident mortel) par le mécanisme de la présomption d’imputabilité, la loi sur les AT est analysée comme ayant finalement contribué à leur acceptabilité sociale27. Le caractère fataliste combiné à la possibilité de s’assurer contre les conséquences financières de l’accident du Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 139 travail est en effet rétrospectivement considéré comme un frein à l’engagement de démarches préventives réelles28. Pierre Sargos affirmera que « cette réparation, pour limitée qu'elle soit, a ruiné la mise en œuvre effective de la prévention des accidents si heureusement amorcée en 189329 ». Dès lors que le dommage était réparé, il était devenu inutile à l’employeur de fournir un quelconque effort de prévention. Il faut attendre 1901 pour qu’une loi visant spécifiquement à indemniser les maladies professionnelles soit déposée devant le parlement. Elle est débattue et votée en 1913 par la Chambre des députés avant de rester bloquée durant la Première Guerre mondiale devant le Sénat, pour être finalement adoptée le 25 octobre 1919. Tout comme pour la loi sur les accidents du travail, les débats sont longs et les réticences sont fortes pour étendre le régime existant aux maladies professionnelles. Le coût d’une telle réforme mis à la charge des industriels est dénoncé par ses détracteurs. Les difficultés pour déterminer si les maladies sont réellement attribuables au travail ou si elles trouvent leur cause dans le comportement des travailleur·euses, dont l’hygiène de vie est alors notablement stigmatisée30, sont mises en avant pour contester la proposition de loi. Contrairement à l’accident du travail qui se caractérise par un évènement soudain facilement identifiable et donc objectivable, la maladie est quant à elle le plus souvent la conséquence d’une exposition chronique à des produits (ou à des procédés) toxiques. Il est donc plus difficile de trouver des critères objectifs de qualification. Durant le temps long des discussions parlementaires, la jurisprudence accepte de combler l’absence de régime en assimilant certaines maladies à des accidents du travail, dès lors qu’une intoxication est matériellement identifiable31. Dans le même temps, des mouvements ouvriers militent pour une forme de prévention radicale contre ce qu’ils appellent les « poisons industriels » dont ils demandent une interdiction pure et simple de l’usage. 28 Viet, V. (1999). Le choix de la prévention. Economica.; Omnès, C. (2009). De la perception du risque professionnel aux pratiques de prévention : La construction d'un risque acceptable. Revue d’histoire moderne et contemporaine, 56-1(1), 61. https://doi.org/10.3917/rhmc.561.0061 29 Sargos, supra note 20. 30 Par les mêmes enquêtes de médecins hygiénistes, notamment celle du Dr Villermé (supra note 14) ; en ce sens V. Jarrige, F., & Le Roux, T. (2019). Naissance de l’enquête : Les hygiénistes, Villermé et les ouvriers autour de 1840. Dans E. Geerkens (Dir.), Les enquêtes ouvrières dans l'Europe contemporaine (p. 39–52). La Découverte. 31 Req. 3 nov. 1903, D. 1907. 1, reconnaissant la possibilité de prise en charge des maladies « accidentelles » au titre du régime des AT. 32Devinck, supra note 22. 33 « Sont considérées comme maladies professionnelles les affections aiguës, ou chroniques, mentionnées aux tableaux, annexés à la présente loi, lorsqu'elles atteignent des ouvriers habituellement occupés aux travaux industriels correspondants », art. 2, loi du 25 oct. 1919. 34 Déplaude, M. (2003). Codifier les maladies professionnelles : les usages conflictuels de l'expertise médicale. Revue française de science politique, 53, 707-735. https://doi.org/10.3917/rfsp.535.0707; Henry, E. (2017). Ignorance scientifique et inaction publique: Les politiques de santé au travail. Paris: Presses de Sciences Po. https://doi.org/10.3917/scpo.henry.2017.01 35 V. Marchand, A. (2021, à paraître). La catégorie “cancer professionnelˮ : une construction conflictuelle. Un éclairage par les archives de la commission des maladies professionnelles. Dans Cavalin C., Henry E., Jouzel J-N., Pélisse J. (Dir.), 100 ans de sous-reconnaissance des maladies professionnelles, Presses des Mines. 36 Ce délai pouvant dans certains cas atteindre 40 ans, V. Leroy, P. (1984). Les problèmes médicaux légaux des cancers professionnels, Histoire des accidents du travail, LHDS, (17). 37 Loi n° 46-2426 du 30 octobre 1946 sur la prévention et la réparation des accidents du travail et des maladies professionnelles. Cancers professionnels 137 C’est notamment le cas concernant le phosphore blanc utilisé dans l’industrie des allumettes et le blanc de céruse chez les peintres32. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 140 Cancers professionnels 140 La loi de 1919 étendant le régime des accidents du travail aux maladies professionnelles opte finalement dans son article 233 pour la mise en place d’une présomption d’origine professionnelle dès lors que la maladie correspond à des critères précis, définis dans un système de tableaux. Il est possible de corréler chronologiquement l’abandon de l’axe de revendications autour de l’interdiction des toxiques professionnels à l’adoption de cette loi. À partir de son adoption, les syndicats représentants de salarié·es vont en effet diriger leurs efforts sur l’inscription de nouvelles maladies dans les tableaux. La création et l’actualisation des tableaux de maladies professionnelles sont confiées à une commission spéciale composée de représentantes/s patronaux et salariés. L’évolution du système d’indemnisation va dès lors s’inscrire dans un processus de négociations marqué par une lenteur extrême et une relative paralysie34. L’inscription des pathologies cancéreuses dans les tableaux s’avère particulièrement conflictuelle35. Lorsqu’elles le sont, les critères retenus apparaissent inadaptés aux manifestations cliniques du cancer. Le délai de responsabilité de l’employeur est par exemple pendant longtemps limité à cinq ans, ce qui ne correspond pas aux connaissances médicales déjà acquises sur le temps de latence entre la fin de l’exposition au risque et la survenance du cancer36. Les cancers entrent alors difficilement dans la catégorie de maladie professionnelle, ce qui va contribuer à l’occultation durable de leur lien avec le travail. Alors que la gestion du risque professionnel est principalement axée sur l’aspect indemnitaire, un tournant majeur est opéré par la loi du 30 octobre 194637. La cotisation au régime ATMP devient obligatoire et intègre l’ensemble plus vaste de la gestion des risques sociaux par la Sécurité sociale nouvellement créée. Des objectifs de prévention et de réadaptation du travailleur dans ses capacités fonctionnelles et professionnelles sont adossés Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 141 aux règles de réparation, la fonction indemnitaire du régime devient alors subsidiaire38. aux règles de réparation, la fonction indemnitaire du régime devient alors subsidiaire38. Si l’intégration du risque professionnel à la Sécurité sociale a effectivement permis de redynamiser l’aspect longtemps délaissé par l’action publique de la prévention, il faut toutefois relativiser ce propos au regard de l’incidence réelle des incitations prévues pour améliorer la prévention des risques au sein des entreprises. Le levier de prévention apporté par la loi de 1946 est le système de tarification qu’elle met en place. 38 « La réparation, sous forme d’indemnité ou de rente, ne doit donc être considérée que comme subsidiaire, comme un pis-aller lorsqu’il n’est pas possible de faire mieux. », Exposé des motifs de la loi du 30 octobre 1946. 39 Article D 242-6-2 CSS 38 « La réparation, sous forme d indemnité ou de rente, ne doit donc être considérée que comme subsidiaire, comme un pis-aller lorsqu’il n’est pas possible de faire mieux. », Exposé des motifs de la loi du 30 octobre 1946. 39 Article D. 242-6-2 CSS. 40 Applicable aux entreprises d’au moins 150 salariés. 41 Applicable aux entreprises de moins de 20 salariés. 42 Applicable aux entreprises de 20 à 150 salariés. 43 Article L. 242-7 CSS. 44 Bras, P.-L., & Delahaye-Guillocheau, V. (2004). Tarification des accidents du travail et des maladies professionnelles (Rapport n°2004-17, Inspection générale des affaires sociales). 45 Recours par lequel l’employeur conteste la décision des caisses d’assurance maladie de leur imputer l’accident ou la maladie, la reconnaissance reste acquise pour la victime en cas de jugement d’inopposabilité à l’égard de l’employeur. 40 Applicable aux entreprises d’au moins 150 salariés. 41 Applicable aux entreprises de moins de 20 salarié pp p 43 Article L. 242-7 CSS. 44 Bras, P.-L., & Delahaye-Guillocheau, V. (2004). Tarification des accidents du travail et des maladies professionnelles (Rapport n°2004-17, Inspection générale des affaires sociales). 45 Recours par lequel l’employeur conteste la décision des caisses d’assurance maladie de leur imputer l’accident ou la maladie, la reconnaissance reste acquise pour la victime en cas de jugement d’inopposabilité à l’égard de l’employeur. Cancers professionnels 140 Ce système prévoit que les cotisations ATMP, entièrement à la charge des employeurs, seront calculées chaque année en fonction des taux de fréquence et de gravité des accidents ou des maladies reconnues au niveau de l’entreprise et/ou de la branche d’activité. Trois modes de tarification dépendant de l'effectif de salariés sont institués39. Le premier est la tarification individuelle qui repose sur l'évaluation du coût réel du risque dans l'établissement concerné (sa sinistralité)40. Le deuxième est une tarification collective qui est établie par branche d'activité et fixée par décrets41. Enfin, le troisième mode de tarification est mixte, il fait intervenir en partie le taux individuel et en partie le taux collectif42. Ce dispositif fonde l’incitation à prévenir les risques sur la répercussion de leur réalisation sur le taux de cotisation de l’employeur. Il est complété par la possibilité pour les caisses gestionnaires d’appliquer des bonus ou des malus, soit d’alléger ou d’alourdir le taux de cotisation des entreprises en fonction des efforts constatés en termes de prévention43. Concrètement, ce système d’imputation financière n’est pas aussi incitatif à la mise en place de mesures de prévention qu’il l’affiche. Selon un rapport administratif publié en 200444, le système de tarification des ATMP apparaît peu réactif, peu lisible, manquant d’individualisation et de vigueur. Les dernières décennies ont par ailleurs vu le contentieux de l’inopposabilité45 se multiplier considérablement de la part des employeurs, qui contestent fréquemment l’imputation des ATMP qui leur est faite, 38 « La réparation, sous forme d’indemnité ou de rente, ne doit donc être considérée que comme subsidiaire, comme un pis-aller lorsqu’il n’est pas possible de faire mieux. », Exposé des motifs de la loi du 30 octobre 1946. 39 Article D 242 6 2 CSS Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 142 entraînant un phénomène de dilution de leur responsabilité. Ce phénomène touche particulièrement les cancers professionnels dont les conséquences financières pour l’employeur peuvent être importantes46. L’histoire de la réglementation des risques professionnels rend compte de rapports complexes entre les logiques de réparation et de prévention des ATMP qui, sans s’opposer, n’ont pas bénéficié de la même attention aux mêmes périodes. Les travaux en sciences sociales démontrent que les impératifs du développement économique mis en avant par les industriels pour éviter les coûts liés à ces dispositifs légaux ont conduit à inscrire la gestion du risque professionnel dans un processus de négociation paritaire lent. Cancers professionnels 140 La tension entre le social et l’économique a également mené à une quête d’objectivation scientifique qui conditionne encore largement la reconnaissance du risque cancérogène. Perspectives interdisciplinaires sur le travail et la santé, (18 1). https://doi.org/10.4000/pistes.4635 47 Babin, M. (2003). Le risque professionnel : Étude critique [Nantes]. (141). p p , ( ) p // g/ 47 Babin, M. (2003). Le risque professionnel : Étude critique [Nantes]. (141). Perspectives interdisciplinaires sur le travail et la santé, (18-1). https://doi.org/10.4000/pistes.4635 47 Babin, M. (2003). Le risque professionnel : Étude critique [Nantes]. (141). 6 Durand, C., & Ferre, N. (2016). Responsabilité des employeurs et financement des maladies profession Perspectives interdisciplinaires sur le travail et la santé, (18-1). https://doi.org/10.4000/pistes.4635 46 Durand, C., & Ferre, N. (2016). Responsabilité des employeurs et financement des maladies professionnelles. Perspectives interdisciplinaires sur le travail et la santé, (18-1). https://doi.org/10.4000/pistes.4635 47 Babin, M. (2003). Le risque professionnel : Étude critique [Nantes]. (141). p , ( ) p // g/ /p , M. (2003). Le risque professionnel : Étude critique [Nantes]. (141). 1.2. Une démarche de reconnaissance du risque aux finalités différentes Pour comprendre davantage les liens qui unissent ou séparent les logiques d’indemnisation et de prévention des cancers professionnels, il est essentiel d’analyser selon quelles modalités et quels critères les systèmes réglementaires, qui en la matière sont parallèles, reconnaissent juridiquement l’existence ou les effets des risques cancérogènes. Les deux logiques ne répondent pas dans ce cadre aux mêmes finalités : « Dans une perspective de réparation, la question est de savoir si telle atteinte à la santé trouve sa cause dans les conditions de travail de l’intéressé. Dans une perspective de prévention, il s’agit plutôt de déterminer si les conditions de travail créent un risque pour la santé du travailleur qui s’y trouve soumis, c’est- à-dire sont la cause potentielle d’un préjudice probable47 ». Elles ont toutefois en commun la nécessité d’une connaissance du risque, et donc d’une étape préalable indispensable de recherche sur les causes et les facteurs de risque de la maladie cancéreuse. Si la plupart des maladies professionnelles présentent un caractère multifactoriel, l’origine des pathologies cancéreuses en particulier n’est jamais déterminable avec certitude. Ces affections résultent en effet de processus complexes, d’expositions à de multiples facteurs de risques dont les effets ne se déclarent qu’après un long temps de latence et sans qu’un marqueur biologique spécifique ne permette d’attribuer la maladie à telle Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 143 ou telle situation d’exposition48. Elles ne correspondent dès lors pas au schéma biomédical classique selon lequel une cause particulière provoque un effet particulier. Les connaissances scientifiques sur les facteurs de risques de développement de telles maladies sont à ce jour limitées. Dans la recherche causale, les sciences biomédicales font face à plusieurs obstacles qui ralentissent, voire empêchent leur progression. Or, ces mêmes « sciences » sont aussi bien convoquées à l’appui des réglementations portant sur la prévention des risques cancérogènes sur les lieux de travail que pour la réparation des maladies professionnelles que ces risques sont susceptibles de provoquer. Les limitations de cette recherche sont de différentes natures : certaines sont proprement disciplinaires et donc inhérentes aux limites des savoirs qu’il est possible de produire à un instant t, alors que d’autres relèvent de postures idéologiques également propres aux disciplines concernées. Enfin, il existe également des lobbies qui, pour défendre leurs intérêts, influencent l’état des connaissances. La connaissance des facteurs de risques de cancer implique principalement les sciences de la toxicologie et de l’épidémiologie. 48 Même en prenant le contre-exemple du mésothéliome, cancer caractéristique d’une exposition à l’amiante, il est médicalement impossible de savoir si la pathologie résulte d’une exposition professionnelle ou environnementale. 1.2. Une démarche de reconnaissance du risque aux finalités différentes Tandis que la première étudie le potentiel toxique d’une substance chimique donnée au regard de ses propriétés intrinsèques sur des cellules in vivo et in vitro, la seconde cherche par l’outil statistique à confirmer cette toxicité à partir de l’expérience humaine. Au niveau mondial, l’organisation de référence en matière de recherche sur l’étiologie du cancer est le Centre international de recherche sur le cancer (CIRC). Le CIRC établit une classification des substances selon le degré de cancérogénicité pour l’humain. Il s’appuie pour cela sur des expertises périodiques analysant les résultats des études épidémiologiques et toxicologiques à travers le monde. La classification qui résulte de cette analyse comprend quatre catégories : le groupe 1, correspondant aux agents cancérogènes avérés pour l’humain ; le groupe 2A, qui regroupe les agents probablement cancérogènes ; le groupe 2B, pour les agents peut-être (ou possiblement) cancérogènes ; et enfin le groupe 3, concernant les agents inclassables quant à leur cancérogénicité pour l’humain. Pour qu’une substance soit reconnue comme un cancérogène avéré, la preuve scientifique requiert que la toxicité constatée chez l’animal soit confirmée chez l’être humain, ce qui ne peut se faire que par des études épidémiologiques. En cas de preuve insuffisante pour l’humain, mais suffisante chez l’animal, l’agent sera considéré comme un cancérogène probable pour l’humain. Des scientifiques estiment qu’un cancérogène pour l’animal l’est certainement Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 144 aussi pour l’être humain, bien qu’il n’existe pas de consensus sur la validité de cette extrapolation. Son invalidité n’est pas non plus démontrée49. La certitude scientifique est donc conditionnée à la production d’études épidémiologiques convergentes. L’épidémiologie fait ainsi figure de discipline maîtresse en matière d’évaluation des risques cancérogènes, mais aussi plus généralement des risques sanitaires, et contribue largement à définir les priorités en santé, à guider la décision politique. Elle se définit comme « l’étude de la distribution, de la fréquence et des causes des maladies humaines50 ». Ses deux objectifs principaux sont d’identifier des facteurs susceptibles d’augmenter le risque de développer une maladie et de quantifier ce risque. La quantification aboutit à ce qu’on appelle la « prévalence » du risque dans une population déterminée. Autrement dit, il s’agit de la proportion de la population dont la maladie peut être attribuée au risque étudié. Les épidémiologistes parlent alors de « parts » ou de « fractions » « attribuables ». 51 Plan cancer 2014-2019, préc. 52 Marant Micallef, C., Shield, K. D., Vignat, J., Baldi, I., Charbotel, B., Fervers, B., Gilg Soit Ilg, A., Guénel, P., Olsson, A., Rushton, L., Hutchings, S. J., Cléro, E., Laurier, D., Scanff, P., Bray, F., Straif, K., & Soerjomataram, I. (2019). Cancers in France in 2015 attributable to occupational exposures. International Journal of Hygiene and Environmental Health, 222(1), 22–29. https://doi.org/10.1016/j.ijheh.2018.07.015 53 Counil, É., & Henry, E. (2016). Produire de l’ignorance plutôt que du savoir ? Travail et emploi, (148), 5–29. https://doi.org/10.4000/travailemploi.7347 54 Counil, E. (2017). Causes du cancer : Pourquoi le travail échappe aux radars. Santé et travail, (100). 55 Counil, É. (2019). Le travail comme analyseur des tensions dans la construction épidémiologique de causes et de responsabilités. Sociologie du travail, 61(2). https://doi.org/10.4000/sdt.18116 Epstein, S. S. (1978). The politics of cancer. Sierra Club Books. 50 MacMahon, B., Pugh, T.F. (1970). Epidemiology : Principles and methods. Little, Brown. l 20 4 20 9 é , , g , ( 51 Plan cancer 2014-2019, préc. 49 Epstein, S. S. (1978). The politics of cancer. Sierra Club Books. 1.2. Une démarche de reconnaissance du risque aux finalités différentes En France, l’estimation de la part attribuable de cas de cancers à une origine professionnelle est variable. Le Plan cancer 2014-2019 retenait une fourchette comprise entre 4 et 8,5 % des cas de cancers incidents51. Une autre étude l’a estimée, pour l’année 2015, à 2,3 %, 3,9 % pour les hommes et 0,4 % pour les femmes52. De récents travaux s’intéressant à la genèse de la construction de ces fractions attribuables rappellent leur caractère irréductiblement sous-estimé53 et démontrent qu’elles ne présentent pas l’absolue neutralité dont elles se prévalent54. Les calculs impliquent en effet certains choix quant aux variables retenues – telles que les localisations pathologiques ou les substances cancérogènes prises en compte – et à l’exclusion d’autres qui influent de fait sur les résultats, conduisant souvent à minimiser le rôle du travail55. Pour ce qui est de l’identification des causes professionnelles de cancer, l’épidémiologie présente également plusieurs limites. D’un point de vue méthodologique, établir un rapport de causalité nécessite d’avoir la Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 145 56 Ibid. Cancers professionnels 145 1 (2021) Cancers professionnels 146 toxicologues tentent de déterminer une relation dose/effet entre l’agent et le sujet biologique. Plus précisément, ils vont chercher à déterminer un seuil d’exposition au-dessus duquel l’agent est susceptible de provoquer des effets indésirables tels qu’une maladie et, a contrario, un seuil en dessous duquel il y a moins ou pas de risque. Il faut toutefois rappeler qu’en ce qui concerne les cancers, « il n’existe pas de dose seuil en dessous de laquelle la probabilité d’apparition d’un cancer serait inexistante57 ». toxicologues tentent de déterminer une relation dose/effet entre l’agent et le sujet biologique. Plus précisément, ils vont chercher à déterminer un seuil d’exposition au-dessus duquel l’agent est susceptible de provoquer des effets indésirables tels qu’une maladie et, a contrario, un seuil en dessous duquel il y a moins ou pas de risque. Il faut toutefois rappeler qu’en ce qui concerne les cancers, « il n’existe pas de dose seuil en dessous de laquelle la probabilité d’apparition d’un cancer serait inexistante57 ». Au-delà de ces limites ou des idéologies disciplinaires qui contribuent à l’ignorance dans certains cas et à la sous-estimation des risques dans d’autres, l’Histoire est également le meilleur témoin de l’existence de manipulations de données scientifiques orchestrées par certains industriels aux fins d’empêcher ou de ralentir l’adoption de réglementations contraignantes. De nombreux travaux démontrent en effet la contribution des lobbies industriels dans le maintien d’une ignorance autour des risques chimiques et de la construction de « stratégies du doute » pour éviter l’adoption de mesures de prévention, voire l’interdiction de certaines substances dangereuses, dont l’amiante est l’exemple emblématique58. Bien que le classement établi par CIRC soit reconnu pour sa fiabilité scientifique, il ne revêt aucun caractère réglementaire. Ainsi, les réglementations européennes et nationales en matière de prévention et d’indemnisation ne sont soumises à aucune obligation d’actualisation en fonction de ce classement. La reconnaissance du caractère avéré ou probable d’un risque cancérogène va devoir passer au travers de plusieurs « filtres » pour produire des effets juridiques. Ces « filtres » seront tantôt ceux de la négociation politique ou syndicale, tantôt ceux de l’appréciation de certains décideurs. 57 Picot, A., & Thébaud-Mony, A. (2015). Risques et atteintes toxiques. Dans A. Thébaud-Mony (Dir.), Les risques du travail. Pour ne pas perdre sa vie à la gagner (p. 271–281). La Découverte. 58 Michaels, D. (2007). Doubt is their product : How industry scientists manufacture uncertainty and threaten your health. Oxford University Press.; Thébaud-Mony, A. (2014). La science asservie: Santé publique : les collusions mortifères entre industriels et chercheurs. Paris: La Découverte. https://doi.org/10.3917/dec.theba.2014.01 59 Pour une analyse détaillée V. Vogel, L. (2018). Les deux versants de la législation européenne : Régulation du marché et prévention sur les lieux de travail. Dans L. Vogel & T. Musu (Dir.), Cancer et travail. Comprendre et agir pour éliminer les cancers professionnels (p. 137–154). European Trade Union Institute. Cancers professionnels 145 capacité d’isoler l’agent pathogène suspecté pour savoir s’il présente effectivement une nocivité pour les individus qui y sont exposés. En outre, la puissance statistique requise pour atteindre le niveau de preuve suffisant pour établir un tel lien est rarement atteignable. Comme énoncé précédemment, rien ne distingue biologiquement le cancer d’origine professionnelle des autres cas de cancer. Il s’avère dès lors particulièrement difficile dans un monde où les risques cancérogènes se sont démultipliés d’étudier l’influence de l’un d’entre eux en particulier, alors que différentes sources de risques peuvent aussi bien conduire indistinctement aux mêmes effets ou à l’absence d’effet. Relever une association statistiquement significative pour établir un lien causal nécessite de mener des enquêtes sur de larges populations présentant les mêmes caractéristiques d’exposition. Or, les populations de travailleur·euses sont marquées par la diversité des conditions de travail et des formes d’emploi, ce qui induit une variabilité des expositions difficile à appréhender par les modèles statistiques. Il existe par ailleurs un déficit de connaissance quant aux activités réelles de travail qui exposent aux cancérogènes, notamment pour les travailleurs les plus précaires, les travailleuses plus particulièrement. Sur le plan de la posture idéologique dominant la discipline, le standard de preuve de l’association causale, c’est-à-dire le niveau de certitude scientifique exigée, privilégie l’absence de « faux positifs », à savoir le risque de conclure à tort qu’une association statistique est significative plutôt que celui de « faux négatifs » soit de conclure à tort qu’une association est non significative par des calculs probabilistes. Alors que le risque de « faux positifs » ne doit pas dépasser 5 %, celui de « faux négatifs » n’est pas toujours calculé a priori et excèderait les 20 %56. Autrement dit, ce postulat appliqué dans la situation qui nous intéresse conduit plus fréquemment à écarter la relation causale entre l’agent et la pathologie étudiée lorsque celle-ci se révèle en fait avérée par la suite qu’à déclarer, à l’inverse, l’agent pathogène, alors qu’en réalité, il ne l’est pas. Enfin, avant même que des études épidémiologiques ne puissent être menées, il existe un déficit de connaissances sur la toxicité d’un grand nombre de substances chimiques ou de leurs dérivés issus des procédés de production. Le caractère cancérogène d’une substance peut être suggéré par des études toxicologiques, mais celles-ci ne couvrent qu’une faible proportion des toxiques existants. Après avoir identifié l’action nocive, les 56 Ibid. Communitas, Vol. 2, No. 60 Règlement CE/1907/2006 concernant l’enregistrement, l’évaluation et l’autorisation des substances chimique (Registration, Evaluation, Autorisation of CHemicals) dit « REACH ». 61Règlement 1272/2008, Classification, Labelling, Packaging, dit « CLP ». 62 Vogel, supra note 59. 63 Ibid. 64 Directive 89/391 CEE, du 12 juin 1989 dite « directive-cadre ». 65 Directive 90/394/CEE, du 28 juin 1990, concernant la protection des travailleurs contre les risques liés à l'exposition à des agents cancérigènes au travail. 66 Aux articles L.1421-1 et suivants du Code du travail. 67 Directive 2004/37/CE, du 29 avril 2004. 68 Article 4 de la directive, transposé à l’article R.4412-15 du Code du travail. 60 Règlement CE/1907/2006 concernant l’enregistrement, l’évaluation et l’autorisation des substanc (Registration, Evaluation, Autorisation of CHemicals) dit « REACH ». ( g ) 61Règlement 1272/2008, Classification, Labelling, Packaging, dit « CLP ». 68 Article 4 de la directive, transposé à l’article R.4412-15 du Code du travail. Cancers professionnels 145 Le droit européen, moteur dans l’évolution des mesures de prévention des risques du travail, intervient de deux manières pour tenter de limiter l’exposition des travailleur·euses aux risques cancérogènes : tout d’abord par la réglementation des conditions de travail, puis plus indirectement par la réglementation de la circulation et de la mise sur le marché des substances chimiques59. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 147 67 Directive 2004/37/CE, du 29 avril 2004. 0 Règlement CE/1907/2006 concernant l’enregistrement, l’évaluation et l’autorisation des substances c j l'exposition à des agents cancérigènes au travail. 60 Règlement CE/1907/2006 concernant l’enregistrement, l’évaluation e (Registration, Evaluation, Autorisation of CHemicals) dit « REACH ». p g g 66 Aux articles L.1421-1 et suivants du Code du trava Cancers professionnels 147 Sur le versant de la réglementation du marché, il existe deux règlements actuellement en vigueur au sein de l’UE : le règlement REACH60 qui prévoit un dispositif d’évaluation, voire d’autorisation des substances mises sur le marché, et le règlement CLP61 qui vient harmoniser les règles de classification, d'étiquetage et d'emballage des substances chimiques et des mélanges. Si ces textes sont porteurs de progrès en termes de connaissance et de prévention, ils présentent aussi un champ d’application parfois jugé insuffisant au regard de l’enjeu des cancers professionnels et des lacunes dans leur mise en œuvre62. En effet, il apparaît que des substances notifiées comme cancérogènes, mutagènes et toxique pour la reproduction (CMR) dans le cadre de REACH ne sont pas reprises dans le classement du règlement CLP et peuvent donc circuler librement sans être prises en compte en tant que telles63. Du côté de la réglementation des conditions de travail, deux textes ont une importance majeure pour la prévention des cancers professionnels : la directive-cadre de 1989 relative à la sécurité et à la santé au travail64 et la directive sur la protection des travailleurs exposés à des agents cancérogènes et mutagènes65. L’apport principal de la directive-cadre de 1989 est d’amener une nouvelle approche en matière de prévention. Elle va instaurer l’obligation d’évaluation des risques par les employeurs et affirmer le principe selon lequel le travail doit s’adapter à l’humain et non l’inverse. Cette directive, depuis transposée en droit national66, met en place une hiérarchie déclinant neuf objectifs de prévention tournés vers l’évitement du risque et, lorsque cela est impossible, la réduction de celui-ci à son minimum. La directive de 1990 sur la protection des travailleurs exposés à des agents cancérogènes, révisée en 200467 et de nouveau en cours de révision, s’inscrit dans le même esprit que la directive-cadre de 1989. Elle va toutefois plus loin, puisqu’elle priorise le principe de substitution d’un agent dangereux par un produit moins ou non nocif68. Dans l’optique d’une réduction des risques, des valeurs limites d’exposition professionnelle (VLEP) sont instaurées pour certaines substances. La VLEP fait référence à la concentration maximale d’un composé chimique, le plus souvent dans l’air, à laquelle un·e Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 148 travailleur·euse peut être exposé·e durant un temps défini et en dessous de laquelle on estime que le risque d’atteinte à la santé est, soit inexistant, soit acceptable69. 69 Musu, T. (2018). Les valeurs limites d’exposition professionnelle : utilités et limites pour la protection des travailleurs. Dans L. Vogel & T. Musu (Dir.), Cancer et travail. Comprendre et agir pour éliminer les cancers professionnels (p. 155-162). European Trade Union Institute. 70 Henry, supra note 34. 71 Correspondant aux catégories 1A (risque avéré) et 1B (risque supposé pour la santé humaine) du règlement CLP. 72 Articles R. 4412-1 à R. 4412-160 du Code du travail visent spécifiquement les risques chimiques. 73 Babin, M. (1998). Les logiques de reconnaissance des maladies professionnelles. Droit social, (7), 673. Cancers professionnels 147 Ce seuil d’exposition est basé sur les données produites dans le cadre des études toxicologiques précédemment décrites et de la relation dose/effet qui a pu y être déterminée. Cet instrument de prévention a été privilégié dans de nombreux pays industrialisés sans qu’il constitue toutefois la garantie d’une prévention efficace pour les travailleur·euses. Les négociations autour de cette norme, qu’elles soient européenne ou nationale, témoignent d’une mise en balance permanente entre les intérêts économiques des secteurs d’activités exposants aux cancérogènes et la santé des travailleur·euses70. Selon cet ensemble législatif, les agents CMR71 doivent obligatoirement faire l’objet d’une recherche de substitution. À défaut de substitution, l’employeur devra limiter l’exposition de ses salarié·es au risque en respectant les VLEP réglementaires, en mettant en place des moyens de prévention collective, en informant et formant ses salarié·es sur les risques, puis – faute de mieux –, en fournissant des équipements de protection individuels72. Les classifications de l’UE ou du CIRC n’ont que peu d’incidence sur le champ de l’indemnisation. Les tableaux de maladie professionnelle ne font pas l’objet d’une actualisation systématique lorsque des substances sont classées en tant que cancérogène avéré pour l’humain, principalement car cette actualisation relève de la négociation entre des partenaires sociaux aux intérêts divergents. La reconnaissance du risque dans la logique d’indemnisation est une démarche de causalité73. Elle rejoint en partie la démarche préventive quant à l’identification scientifique des risques, cependant, elle est capable, du moins théoriquement, de dépasser les incertitudes scientifiques suscitées et le cadre rigide des tableaux de maladie professionnelle. Cette démarche obéit au cadre strict des articles L.461-1 et suivants du Code de la sécurité sociale. La démonstration causale se situe à deux niveaux : celle d’une Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 149 causalité objective, ou abstraite74, à savoir la preuve que l’agent désigné est capable de provoquer la maladie, et celle d’une causalité subjective, concrète75, tenant à la preuve que l’agent est bel et bien en cause dans le cas particulier du demandeur. Dans le cas où un tableau existe, la condition de causalité objective est présumée entre l’affection et l’exposition spécifiquement visées par ce tableau. Au niveau individuel, le demandeur devra présenter une pathologie associée aux conditions décrites dans le tableau pour bénéficier de la présomption. Il sera alors exempté de la démonstration du lien causal entre sa maladie et son travail. 74 Terme emprunté à Etienne Vergès, Vergès, E. (2012). Les liens entre la connaissance scientifique et la responsabilité civile : Preuve et conditions de la responsabilité civile. Dans E. Truilhé-Marengo (Dir.), Preuve scientifique, preuve juridique (p. 129–160). Larcier. 75 Ibid Alinéas 6 à 8 de l article L. 461 1 CSS. 79 Ce corpus est mobilisé dans le cadre d’une thèse de doctorat en droit privé analysant l’appréhension de la notion de relation causale dans les régimes sur les maladies professionnelles en France et au Québec. L’accès à ces documents est rendu possible grâce au GISCOP93, V. Infra. 75 Ibid. 76 Loi n° 93-121 du 27 janv. 1993, faisant suite à la recommandation européenne du 22 mai 1990 (90/776), JOCE, n° L160, 26 juin 1990, p. 39. 77 A ti l D 461 27 CSS 78 Alinéas 6 à 8 de l’article L. 461-1 CSS. j p 77 Article D. 461-27 CSS. 74 Terme emprunté à Etienne Vergès, Vergès, E. (2012). Les liens entre la connaissance scientifique et la responsabilité civile : Preuve et conditions de la responsabilité civile. Dans E. Truilhé-Marengo (Dir.), Preuve scientifique, preuve juridique (p. 129–160). Larcier. 75 Ibid. 76 Loi n° 93-121 du 27 janv. 1993, faisant suite à la recommandation européenne du 22 mai 1990 (90/776), JOCE, n° L160, 26 juin 1990, p. 39. 77 Article D. 461-27 CSS. 78 Alinéas 6 à 8 de l’article L. 461-1 CSS. 79 Ce corpus est mobilisé dans le cadre d’une thèse de doctorat en droit privé analysant l’appréhension de la notion de relation causale dans les régimes sur les maladies professionnelles en France et au Québec. L’accès à ces documents est rendu possible grâce au GISCOP93, V. Infra. 80 Le caractère direct du lien entre la pathologie et le travail est mieux admis lorsque ce sont les critères de temps de latence ou d’activité professionnelle qui ne correspondent pas aux prescriptions des tableaux. 81 Marchand, A. (2018). Reconnaissance et occultation des cancers professionnels : Le droit à réparation à l'épreuve de la pratique (Seine-Saint-Denis) [Thèse pour le doctorat d'histoire et de sociologie non publiée]. Université Paris Saclay. 82 V. Infra. 83 Nouveau Al.6 du même article. 84 Cass. Civ 2e, 19 décembre 2019, 00-13.097, Bull. 2002 V N° 402 p. 395. 85 Cass. Civ 2e, 12 février 2015, 14-10.931, Inédit. 86 Al. 7 de l’article L461-1 du CSS. 80 Le caractère direct du lien entre la pathologie et le travail est mieux admis lorsque ce sont les critères de temps de latence ou d’activité professionnelle qui ne correspondent pas aux prescriptions des tableaux. 81 Marchand, A. (2018). Reconnaissance et occultation des cancers professionnels : Le droit à réparation à l'épreuve de la pratique (Seine-Saint-Denis) [Thèse pour le doctorat d'histoire et de sociologie non publiée]. Université Paris Saclay. 82 V. Infra. V. Infra. 83 Nouveau Al.6 du même article. 84 Cass. Civ 2e, 19 décembre 2019, 00-13.097, Bull. 2002 V N° 402 p. 395. 85 Cass. Civ 2e, 12 février 2015, 14-10.931, Inédit. 86 Al. 7 de l’article L461-1 du CSS. ractère direct du lien entre la pathologie et le travail est mieux admis lorsque ce sont les critères de nce ou d’activité professionnelle qui ne correspondent pas aux prescriptions des tableaux. Cancers professionnels 147 Face au caractère trop restrictif de ce système de tableaux, la France va se doter d’une voie complémentaire de reconnaissance par la loi du 27 janvier 199376. Le régime désormais dit « mixte » combine un système de listes sous forme de tableaux et un système « d’expertise individuelle ». Lorsque la maladie n’est pas visée par un tableau ou bien si tous les critères du tableau ne sont pas réunis, alors l’évaluation du rapport de causalité est confiée à un comité médical, le comité régional de reconnaissance des maladies professionnelles (CRRMP). Ce comité composé de trois médecins77 va être chargé de déterminer si la pathologie présentée est en lien « direct » ou « direct et essentiel » avec l’activité professionnelle du demandeur78. L’analyse d’un corpus d’avis rendus par ces comités79 rend compte d’une appréhension très rigoureuse, même restrictive, de la part des médecins qui les composent des critères de causalité prescrits par les textes. L’appréciation médicale qui en est faite, laquelle engage les caisses d’assurance maladie quant à la réponse à apporter au demandeur, répond au raisonnement scientifique précédemment décrit, c’est-à-dire celui d’une relation causale basée sur le standard de la certitude scientifique. Le doute est alors excluant de la qualification de maladie professionnelle. Pour les pathologies désignées sur un tableau, mais pour lesquelles les critères ne sont pas entièrement remplis, le doute sur le caractère direct entre l’affection et l’activité habituelle de travail du demandeur réside souvent Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 150 hand, A. (2018). Reconnaissance et occultation des cancers professionnels : Le droit à réparation à e de la pratique (Seine-Saint-Denis) [Thèse pour le doctorat d'histoire et de sociologie non publiée]. é Paris Saclay. 87 Azria, É. (2010). Connaissance, incertitude et décision dans la pratique du soin : De la nécessité de décider. Dans Traité de bioéthique (p. 707). ERES. https://doi.org/10.3917/eres.hirsc.2010.01.0707 88 Cela traduit la tendance à attribuer les causes du cancer aux comportements individuels plutôt qu’aux facteurs de risque collectif. Cancers professionnels 151 Cancers professionnels 151 Pour les médecins, cette preuve n’est apportée qu’en présence d’études épidémiologiques suffisantes et concordantes. Le manque de certitude scientifique est ainsi un obstacle à la reconnaissance du caractère professionnel de la maladie. Or, « la statistique est [ainsi] un outil qui ne permet pas d’apporter de certitude, mais de modéliser l’incertitude. De la même façon le raisonnement inductif couramment employé en médecine ne peut qu’apporter des conclusions probables, jamais certaines87 ». Le critère de cause « essentielle » n’a jamais fait l’objet de clarification jurisprudentielle explicite, les décisions en la matière renvoient au pouvoir souverain d’appréciation des éléments de preuve par les juges du fond. En ce qui concerne l’analyse de la causalité subjective, l’attitude des CRRMP est d’exclure systématiquement tout lien causal en présence d’un facteur de risque confondant. Les avis qui formalisent leur jugement de causalité ne font toutefois pas part du détail de leur raisonnement quant à la prépondérance de la consommation tabagique sur l’exposition professionnelle88. La Cour de cassation ne donne pas non plus de ligne directrice sur cette appréciation. La mise en place d’une voie complémentaire de reconnaissance des maladies professionnelles était censée contribuer à l’extension du champ de l’indemnisation. Après près de trente ans d’existence, il est possible de constater que cet objectif n’est pas rempli. Le manque de preuves quant aux expositions et le défaut d’émancipation face à l’incertitude scientifique viennent entretenir une sorte cercle vicieux d’ignorance et d’occultation des liens entre cancer et travail. Considérer les logiques d’indemnisation et de prévention de manière complémentaire pourrait toutefois inverser cette tendance. Cancers professionnels 150 Cancers professionnels 150 dans la matérialité et le degré d’exposition à la substance invoquée80. C’est ici la causalité subjective qui est en question. La preuve des expositions passées est peu évidente à apporter pour le demandeur81, notamment en raison du défaut d’application d’une partie de la règlementation82. Dans l’impossibilité d’avoir la certitude de l’existence de l’exposition ou de son intensité, les CRRMP vont alors rejeter le lien avec le travail. Les motifs invoqués sont souvent lapidaires, ils se rapportent à l’« absence de preuve d’exposition » ou à une « quantification impossible de l’exposition ». La reconnaissance présente moins de difficultés lorsque les conditions non réunies par le demandeur tiennent au dépassement du délai de latence ou aux travaux prévus dans le tableau. D’autres avis se réfèrent parfois à l’« existence de facteurs extraprofessionnels » ou au fait que l’exposition soit « environnementale ». Ces deux dernières interprétations ont pourtant été écartées par la Cour de cassation qui est venue éclairer à plusieurs reprises l’appréciation qu’il convenait d’avoir du lien direct. Depuis un arrêt du 19 décembre 2002, indiquant que « ce texte [l’alinéa 3 de l’article L461-1 CSS83] n’exige pas que le travail habituel soit la cause unique ou essentielle de la maladie84 », l’existence d’un facteur de risque concurrent tel qu’une consommation tabagique antérieure de la victime n’est pas de nature à exclure le caractère professionnel de la pathologie. Dans un arrêt du 12 février 201585, la Cour de cassation va en outre confirmer la possibilité d’établir l’existence d’un lien direct entre la survenance d’un cancer du poumon et l’exposition « indirecte » à l’amiante résultant de l’environnement de travail. L’examen d’avis récents de CRRMP démontre que ces jurisprudences n’ont que peu d’incidence sur leur appréciation du lien causal. Si aucun tableau ne vise la pathologie présentée par le demandeur et l’exposition invoquée par celui-ci, le CRRMP va devoir décider si la maladie a été « essentiellement et directement causée par le travail habituel de la victime86 ». Dans cette hypothèse, le demandeur ne doit plus seulement faire la preuve d’une causalité subjective ou concrète, mais aussi démontrer une causalité objective entre sa pathologie et l’agent cancérogène incriminé. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 151 89 Les règles de prévention étant inscrites dans le Code du travail et celles d’indemnisation dans le Code de la sécurité sociale. 90 Journal officiel de la République française. Débats parlementaires. Chambre des députés, compte rendu in- extenso. 1913-06-19. 2. L’indemnisation et la prévention, des logiques complémentaires Si l’on s’en tient à l’analyse précédente, les points saillants de l’opposition de l’indemnisation et de la prévention des risques professionnels se caractérisent par leur différence de finalités et de priorisation. Ces constats occultent le fait que les deux logiques, bien que séparées sur le plan Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 152 normatif89, avaient initialement été conçues selon une certaine harmonie avec l’idée sous-jacente commune du caractère évitable des pathologies professionnelles (2.1). Leur opposition apparente doit donc en fait s’analyser comme résultant de l’ineffectivité de certaines dispositions venant entraver la circularité du système global de gestion des risques (2.2). 2.1. L’idée commune de maladies professionnelles évitables Les travaux juridiques analysant la notion de risque professionnel sont assez nombreux, mais très peu d’entre eux s’intéressent spécifiquement à la législation sur les maladies professionnelles adoptée en 1919. Ils se contentent en effet souvent de désigner cette loi comme une extension de celle sur les AT et de présenter les conditions d’indemnisation qu’elle instaure. La dimension préventive du régime est alors souvent oubliée des analyses. La fonction méconnue de cette loi est en effet d’organiser un véritable système de veille sanitaire censé contribuer à la prévention et, à terme, à l’élimination des maladies professionnelles. La nécessité d’une indemnisation des maladies professionnelles dans les débats parlementaires de 1913 est défendue sur la base de l’idée que ces maladies, contrairement aux accidents du travail, ne sont pas une fatalité. Au contraire, leur reconnaissance juridique doit participer à la connaissance des facteurs de risques et donc à leur prévention. De cette manière, ces pathologies apparaissent comme étant évitables et éliminables. C’est le propos défendu par le rapporteur du projet de loi tel que peut en rendre compte l’extrait suivant des débats90 : […] J'espère qu'il apparaîtra à la Chambre qu'en suivant l'exemple de la Suisse et de l'Angleterre, qui nous ont précédés dans cette voie, elle fera une œuvre d'amélioration de l'hygiène industrielle et sociale autant et plus encore qu'une œuvre d'équité, de justice et de réparation. […] La grande, la principale, presque la seule objection qu'on fait à l'assimilation des maladies professionnelles aux accidents du travail, c'est que cette charge nouvelle, ajoutée à bien d'autres, est une menace pour toutes les industries en général, et qu'elle sera une cause de ruine pour les industries qui y seront assujetties. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 153 […] Non seulement nous ne voulons pas la ruine de ces industries, mais nous croyons que la loi coûtera infiniment moins cher qu'on ne le dit, beaucoup moins cher qu'on ne le croit, et que les améliorations apportées aux conditions du travail et à la santé des ouvriers, par suite d'une meilleure hygiène industrielle, seront à la fois une cause de bien- être et de salut pour les ouvriers, ce qui est indiscutable, et ce qui n'est contesté par personne, et très souvent aussi, une cause d'économie réelle, d'économie positive sérieuse et non négligeable pour le patron; d'où une diminution du prix de la main-d'œuvre et par conséquent du prix de revient. M. 2.1. L’idée commune de maladies professionnelles évitables Henry Chéron, ministre du travail et de la prévoyance sociale. Et ce sera une économie de vies humaines, ce qui est d'abord à considérer. M. le rapporteur. C'est indiscutable; mais même au point de vue où l'on se place de la charge supplémentaire que cette loi imposerait à l'industrie, je soutiens que très souvent au contraire on supprimera ainsi, en supprimant la maladie, une cause de dépenses et de charges. Si, pour améliorer l'hygiène des ouvriers et les conditions de leur travail dans des industries malsaines, on était amené à faire des dépenses telles qu'elles ruinent les industriels, c'est que l'industrie en question serait tout d'abord et sûrement une industrie qui ruinerait la santé des ouvriers; ce que nous ne pouvons admettre dans une société civilisée. Mais soyez tranquille, la loi ne ruinera personne. D'abord, la loi fera disparaître la maladie professionnelle, par conséquent il n'y aura pas besoin de la réparer, la réparation obligatoire de la maladie amènera la préservation. Waldeck-Rousseau a dit devant le Sénat, il y a quelques années : Je crois plus encore à l'hygiène préventive qu'à la médication. La médication, c'est un peu comme le secours après le désastre. On peut l'atténuer; il vaudrait mieux le prévenir. C'est absolument exact. […] M. le rapporteur. En effet, l'assimilation des maladies professionnelles aux accidents du travail empêchera la maladie professionnelle. Elle évitera, en la prévenant, d'avoir ensuite à la réparer. L'accident, malgré toutes les précautions qu'on prend, peut n'être pas évitable. Je soutiens que médicalement la maladie professionnelle, au contraire, est presque toujours évitable. Elle est évitable sinon complètement, entièrement, absolument, au moins en partie dans ses conséquences les plus graves, les plus pénibles, les plus douloureuses. Dans un mémoire que nous a envoyé l'Union du commerce et de Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 154 l'industrie, et qui a été soumis à la commission d'assurance, cette association soutient que sans prédisposition, sans faiblesse organique, il n'y a pas de maladie même professionnelle. C'est une erreur scientifique et médicale absolue. l'industrie, et qui a été soumis à la commission d'assurance, cette association soutient que sans prédisposition, sans faiblesse organique, il n'y a pas de maladie même professionnelle. C'est une erreur scientifique et médicale absolue. Le système de réparation des maladies professionnelles devait ainsi participer à une véritable veille des risques et contribuer à l’élimination des maladies professionnelles. 91 Article 10 de la loi du 25 octobre 1919. 92 Marchand, supra note 35. 93 Ibid, V. également Daubas-Letourneux, V. (2008). Produire des connaissances en santé au travail à l'échelle régionale : Le signalement des maladies à caractère professionnel dans les Pays de la Loire. Revue française des affaires sociales, 213-235. https://doi.org/10.3917/rfas.082.0213 94 Dans sa version actuelle à cet article : « En vue, tant de la prévention des maladies professionnelles que d'une meilleure connaissance de la pathologie professionnelle et de l'extension ou de la révision des tableaux, est obligatoire, pour tout docteur en médecine qui peut en connaître l'existence, notamment les médecins du travail, la déclaration de tout symptôme d'imprégnation toxique et de toute maladie, lorsqu'ils ont un caractère professionnel et figurent sur une liste établie par arrêté interministériel, après avis du Conseil d'orientation des conditions de travail. […] ». 95 Article L. 176-2 CSS. 2.1. L’idée commune de maladies professionnelles évitables La loi finalement adoptée respecte effectivement cette idée de veille sanitaire et de participation à la prévention. Au-delà de la définition de critères de détermination du caractère professionnel de la pathologie, le régime de reconnaissance est pensé comme un ensemble cohérent de dispositions contribuant à un cercle vertueux de prévention. La reconnaissance des maladies professionnelles comprises dans les tableaux est combinée au signalement des pathologies professionnelles émergentes devant alimenter la connaissance des risques professionnels et étendre à terme le champ de la reconnaissance. Une Commission supérieure des maladies professionnelles est chargée de l’adoption de nouveaux tableaux à mesure que les connaissances scientifiques et l’incidence des pathologies professionnelles progresseraient91. Cette connaissance des risques et de leur incidence sur la santé est organisée autour de deux types de signalements : la déclaration des maladies indemnisables au titre des tableaux existants et celle des maladies « à caractère professionnel ». L’article 12 de la loi prévoit qu’« [e]n vue de la prévention des maladies professionnelles et de l’extension ultérieure de la présente loi, la déclaration de toute maladie ayant un caractère professionnel et comprise dans une liste établie par décret est obligatoire pour tout docteur en médecine ou officier de santé qui peut en connaître l’existence ». Les maladies à caractère professionnel correspondent ainsi à des pathologies pour lesquelles il existe une suspicion d’origine professionnelle, mais qui n’entrent pas dans les critères d’indemnisation. Dès 1933, le constat d’une « pénurie de déclaration lourde de conséquences92 » de ces pathologies est effectué. Le défaut de déclaration provoque à la fois une ignorance autour des causes de maladies professionnelles, mais aussi une impossibilité de hiérarchiser les actions à mener sur ces causes en fonction de la gravité de leurs effets. Elle a également pour conséquence, dans le cas du cancer, de servir d’argument Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 155 96 Cabouat, J. (1901). Traité des accidents du travail. Exposé du système de responsabilité et d’indemnisation établi par la loi du 9 avril 1898. Paris : Aux bureaux des lois nouvelles. 97 V. Civ. 21 janv. 1903, DP 1903. 1. 105. 98 Cass. ch. réunies, 15 juill. 1941, D. 1941, p. 117, JCP G 1941, II, no 1705, note Mihura J.; Prétot X., Grands arrêts du droit de la Sécurité sociale, Dalloz, 2002, no 56. Cancers professionnels 155 pour refuser l’extension des tableaux. Le manque de sensibilisation des médecins, pourtant placés dans un rôle moteur du dispositif, est pointé comme responsable de cette absence de déclarations93. pour refuser l’extension des tableaux. Le manque de sensibilisation des médecins, pourtant placés dans un rôle moteur du dispositif, est pointé comme responsable de cette absence de déclarations93. Bien que très peu appliquée, et ce, encore aujourd’hui, cette obligation est pourtant toujours prévue à l’article L461-6 du Code de la sécurité sociale94, qui a depuis été complété par la disposition suivante : « Il doit également déclarer tout symptôme et toute maladie non compris dans cette liste mais qui présentent, à son avis, un caractère professionnel. » Pour parfaire ce dispositif, il est également prévu à l’article L.461-4 que « tout employeur qui utilise des procédés de travail susceptibles de provoquer les maladies professionnelles mentionnées à l'article L. 461-2 est tenu […] d'en faire la déclaration à la caisse primaire d'assurance maladie et à l'inspecteur du travail ou au fonctionnaire qui en exerce les attributions en vertu d'une législation spéciale ». Cet ensemble est ainsi prévu pour faciliter l’indemnisation des maladies professionnelles, mais aussi pour contribuer à la surveillance sanitaire des risques dans une optique de prévention. Après cent ans d’existence, il apparaît cependant que ce système de veille sanitaire n’a jamais été totalement effectif. La lenteur des négociations autour de l’élargissement des maladies prises en charge au titre des maladies professionnelles a contribué à ce manque d’effectivité. Mais, plus encore, l’inapplication des dispositions précitées a distendu le lien entre réparation et prévention initialement prévu. Encore aujourd’hui, il existe un phénomène de sous- déclaration important en matière de maladies professionnelles, particulièrement en matière de cancers. Ce phénomène de sous- déclaration est reconnu de manière officielle depuis longtemps puisqu’une commission spécifique est chargée d’évaluer le poids économique de cette sous-déclaration pour qu’un reversement soit annuellement effectué de la branche ATMP vers la branche maladie, gérées par la Caisse nationale d’assurance maladie95. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 156 Cancers professionnels 156 Malgré ces difficultés de fonctionnement, le régime d’indemnisation des maladies professionnelles a été porteur d’évolutions majeures concernant la portée de l’obligation de prévention des risques à la charge de l’employeur. Grâce au maintien d’une forme de responsabilité civile au travers de la responsabilité pour faute inexcusable de l’employeur (ou du salarié), le régime s’est voulu garant du respect d’un certain devoir de vigilance. Dans les débats précédant l’adoption de la loi de 1898 sur les accidents du travail, la volonté de maintenir un certain niveau de responsabilité des ouvriers et des patrons s’est élevée. L’immunité civile et l’automaticité de la réparation envisagées dans le projet de loi faisaient craindre un laisser-aller des uns ou des autres quant aux précautions minimales de prévention à maintenir dans les activités industrielles. C’est pourquoi, pour une majorité de parlementaires, l’idée d’une responsabilité pour faute devait subsister. À côté du maintien d’un certain degré de vigilance des patrons et des ouvriers, un argument moral était aussi avancé. Il apparaissait en effet y avoir une forme d’immoralité et d’injustice dans l’instauration d’une immunité totale des parties quel que soit leur rôle dans la réalisation du risque. Il s’agissait davantage, en fait, de contester qu’un ouvrier puisse être indemnisé pour un accident causé par sa faute que la situation inverse, dans laquelle l’employeur serait exonéré de sa responsabilité tout en ayant fautivement permis la réalisation de l’accident96. Pour d’autres, maintenir une responsabilité pour faute « inexcusable » au sein du régime était en contradiction avec l’objectif premier de pacification sociale de la loi. La loi du 9 avril 1898 retient finalement des cas d’exonération totale ou partielle de la responsabilité de l’employeur en présence d’une faute intentionnelle ou inexcusable du salarié ainsi que, inversement, une majoration de la rente due en cas de faute inexcusable du patron. La loi ne donne toutefois pas de définition de la faute inexcusable. Pendant longtemps sa caractérisation va ainsi relever de l’appréciation souveraine des juges du fond97. Ce n’est qu’en 1941 qu’une définition jurisprudentielle de la faute inexcusable émerge à l’occasion de l’arrêt « veuve Villa98 ». Celle-ci est définie comme devant « s’entendre d’une faute d’une gravité exceptionnelle dérivant d’un acte ou d’une omission volontaire, de la conscience du danger que devait en avoir son auteur, de l’absence de toute cause justificative, et se distinguant par le défaut d’un élément Communitas, Vol. 2, No. Cancers professionnels 156 1 (2021) Cancers professionnels 157 intentionnel99 ». Cette définition posée par la Cour de cassation est très stricte et requiert la réunion des cinq éléments constitutifs énumérés de manière cumulative de sorte que le nombre de reconnaissances d’une telle faute ne sera qu’insignifiant durant la seconde moitié du XXe siècle. Il faudra attendre les célèbres arrêts « Amiante » en date du 28 février 2002100 pour que la faute inexcusable de l’employeur soit réinterprétée et vienne renforcer la portée de l’obligation de l’employeur en matière de santé et sécurité au travail. Dans ces arrêts, les juges vont énoncer qu’« en vertu du contrat de travail le liant à son salarié, l'employeur est tenu envers celui-ci d'une obligation de sécurité de résultat, notamment en ce qui concerne les maladies professionnelles contractées par ce salarié du fait des produits fabriqués ou utilisés dans l'entreprise; le manquement à cette obligation a le caractère d'une faute inexcusable […] lorsque l'employeur avait ou aurait dû avoir conscience du danger auquel était exposé le salarié et qu'il n'avait pas pris les mesures nécessaires pour l'en préserver101 ». La finalité avancée de cette nouvelle approche était de permettre aux victimes d'obtenir une indemnisation se rapprochant du principe de la réparation intégrale du droit commun de la responsabilité civile. La nouvelle interprétation va en fait, par la même occasion, donner corps à l’obligation de prévention à la charge de l’employeur qui existait déjà en l’érigeant en obligation de résultat plutôt qu’en obligation de moyen. Elle amorce ainsi un rapprochement des logiques d’indemnisation et de prévention du risque professionnel. La survenance d’une maladie professionnelle devient le miroir des manquements de l’employeur à son obligation de prévention. Dans le prolongement des arrêts de 2002, la formation plénière de la Cour de cassation vient préciser le 24 juin 2005 qu’« il est indifférent que la faute inexcusable commise par l'employeur ait été la cause déterminante de l'accident survenu au salarié mais […] il suffit qu'elle en soit une cause nécessaire pour que la responsabilité de l'employeur soit engagée, alors même que d'autres fautes auraient concouru au dommage102 ». Par son assise contractuelle au travers de l’obligation de sécurité de résultat de l’employeur à l’égard de son salarié, la définition de la faute inexcusable a permis « de réaliser une transcendance103 » du droit de la sécurité sociale vers le droit du travail, des règles d’indemnisation vers celles Communitas, Vol. 2, No. 99 Ibid. 100 Cass. soc., 28 févr. 2002, nos 99-21.255, 99-18.389, 00-13.172, 99-17.221, 00-41.220, 00-11.793, 99-17.201 et 00- 10.051, Bull. civ. V, no 81, Dr. soc. 2002, p. 445, obs. Lyon-Caen A., D. 2002, p. 2696, note Prétot X., Dr. ouvrier 2002 p. 166, note Meyer F. 101 Définition étendue aux accidents du travail par l’arrêt Cass. soc., 11 avril 2002, Bull. civ., V, no 133. 102 Cass. ass. plén., 24 juin 2005, no 03-30.038, Bull. civ. ass. plén., nº 7, JCP S 2005, 1056, note Morvan P., D. 2005, p. 2375, note Saint-Jours Y. 103 Keim-Bagot, supra note 11. 101 Définition étendue aux accidents du travail par l’arrêt Cass. soc., 11 avril 2002, Bull. civ., V, no 133. 102 Cass. ass. plén., 24 juin 2005, no 03-30.038, Bull. civ. ass. plén., nº 7, JCP S 2005, 1056, note Morvan P., D. 2005, p. 2375, note Saint-Jours Y. 103 Keim-Bagot, supra note 11. c., 28 févr. 2002, nos 99-21.255, 99-18.389, 00-13.172, 99-17.221, 00-41.220, 00-11.793, 99-17.201 et 00- civ. V, no 81, Dr. soc. 2002, p. 445, obs. Lyon-Caen A., D. 2002, p. 2696, note Prétot X., Dr. ouvrier 2002, e Meyer F. ét d id t d t il l’ êt C 11 il 2002 B ll i V 133 p , y 101 Définition étendue aux accidents du travail par l’arrêt Cass. soc., 11 avril 2002, Bull. civ., V, no 133. 104 En témoigne l’introduction de présomptions de faute inexcusable aux articles L. 4131-4 et L. 4154-3 du Code d travail. 105 La deuxième chambre civile de la Cour de cassation est récemment venue par deux arrêts, en date du 8 octobre 2020, modifier le fondement de la faute inexcusable de l’employeur se référent désormais non plus à l’obligation contractuelle de sécurité mais à l’obligation légale de prévention résultant de l’article L.4121-1 du Code du travail (arrêts n° 18-25.021 et n° 18-26.677). 106 Quinton & Legros, supra note 12. 107 Article L.452-4 CSS, depuis la loi 87-39 du 28 janvier 1987. 108 V. Verkindt, P.-Y. (2007). À propos de l’opposabilité à l’employeur de la décision de prise en charge d’une pathologie ou d’un accident au titre du libre IV du CSS. RDSS, (04), 706. 109 Asquinazi-Bailleux, D. (2019). L'anxiété des travailleurs exposés à des substances novices ou toxiques : Quel espoir de réparation ? JCP S, 1282. 110 C. cass. soc, 11 sept. 2019 no 17-24879. 111 C.A. Douai, 29 janv. 2021. 105 La deuxième chambre civile de la Cour de cassation est récemment venue par deux arrêts, en date du 8 octobre 2020, modifier le fondement de la faute inexcusable de l’employeur se référent désormais non plus à l’obligation contractuelle de sécurité mais à l’obligation légale de prévention résultant de l’article L.4121-1 du Code du travail (arrêts n° 18-25.021 et n° 18-26.677). 104 En témoigne l’introduction de présomptions de faute inexcusable aux articles L. 4131-4 et L. 4154- travail. iè i i i é ê 106 Quinton & Legros, supra note 12. 107 Article L.452-4 CSS, depuis la loi 87-39 du 28 janvier 1987. Quinton & Legros, supra note 12. rticle L.452-4 CSS, depuis la loi 87-39 du 28 janvier 1987. p j 08 V. Verkindt, P.-Y. (2007). À propos de l’opposabilité à l’employeur de la décision de prise en charge d pathologie ou d’un accident au titre du libre IV du CSS. RDSS, (04), 706. 112 Barthélémy, J. (2007). Peut-on dissocier le droit du travail et le droit de la Sécurité sociale ? Contribution à la théorie des vases communiquants. Droit social, (07-08), 787. 113 Marchand, A. (2020). Les ressorts du non-recours au droit de la réparation en maladie professionnelle. Droit social, (12), 983. 114 Lißner, L., Kuhl, K., Kauppinen, T., & Uuksulainen, S. (2014). Exposition aux cancérigènes et cancer lié au travail : une analyse des méthodes d'évaluation (European Risk Observatory Report). Publications Office of the European Union. Cancers professionnels 159 comme un moyen de prévention. L’ineffectivité de pans entiers de la règlementation a mis à mal cette logique d’ensemble et a contribué à distendre le lien entre indemnisation et prévention. Les actions en indemnisation ont en revanche favorisé le développement d’une jurisprudence exigeante quant à l’obligation de prévention pesant sur l’employeur. Si cette jurisprudence est porteuse de progrès importants en termes de santé au travail, elle ne suffit toutefois pas à activer le cercle vertueux auquel aspiraient les promoteurs de la loi de 1919. Cancers professionnels 156 1 (2021) Cancers professionnels 158 de prévention104. La survenance de la maladie ou de l’accident n’induit pas automatiquement la reconnaissance de la faute inexcusable de l’employeur. En revanche, l’obligation de résultat implique qu’il ait pris toutes les mesures de prévention adéquates105. Une telle définition de la faute inexcusable a été critiquée en ce que l’employeur n’aurait pas intérêt à produire les documents de traçabilité du risque pouvant se retourner contre lui106. Ces observations peuvent être relativisées au regard de l’incidence réelle du contentieux de la faute inexcusable qui reste globalement peu fréquent dans les cas de maladie professionnelle. Par ailleurs, l’employeur peut désormais s’assurer contre les conséquences de sa faute inexcusable107. Enfin, il existe un contentieux important initié par les employeurs tendant à faire invalider l’opposabilité des décisions de reconnaissance d’ATMP à leur égard et, de la même manière, celle de leur faute inexcusable. Dans ce contentieux, il apparaît que le caractère professionnel de la pathologie n’est contesté qu’en dernier ressort, après toute une série de moyens tenant à soulever des défaillances de forme imputables aux organismes sociaux chargés de la procédure d’instruction108. L’évolution de la faute inexcusable de l’employeur a constitué un vecteur important dans la remobilisation des questions de prévention. Dans la prolongation de ce mouvement, un contentieux spécifique est engagé par certain·es travailleur·euses désirant faire sanctionner les expositions subies alors qu’aucune maladie ne s’est (encore) déclarée. Ainsi, sur le fondement d’un « préjudice d’anxiété » de développer une maladie grave, d’ancien.nes salarié·es exposé·es à l’amiante ont pu obtenir une indemnisation du fait de leur exposition109. Le 29 janvier 2021, la Cour d’appel de Douai, après renvoi sur cassation110, a par ailleurs admis l’indemnisation du préjudice d’anxiété de plus de 700 mineurs au titre de leur multiexposition à des produits toxiques111. Loin d’être un frein à la prévention, il apparaît ici qu’au contraire, la logique de reconnaissance des maladies professionnelles a été pensée Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 159 2.2. Les chaînons manquants à la circularité du lien entre prévention et réparation Du point de vue juridique, la distinction entre les logiques d’indemnisation et de prévention des risques renvoie à la dissociation normative formelle du droit social entre le droit de la sécurité sociale et le droit du travail. Il convient toutefois de relativiser ce cloisonnement apparent des deux matières tant leurs liens apparaissent étroits112. La gestion des risques professionnels, et en particulier celle des risques cancérogènes, suppose de mettre en cohérence la prise en charge des victimes et la prévention des risques sur les lieux de travail. La législation sur les maladies professionnelles, bien qu’imparfaite, a tenté dès son adoption cette mise en cohérence par l’instauration d’une forme de circularité du système de reconnaissance comme décrit ci-dessus. Cependant, les imperfections structurelles de ce système et les manquements dans l’application de la règlementation empêchent ce fonctionnement vertueux. L’on observe ainsi à l’inverse l’entretien d’un manque de connaissance sur les expositions aux cancérogènes qui induit à la fois un défaut de leur prévention et un défaut d’indemnisation des victimes, faute pour elles de pouvoir relier d’abord mentalement puis le cas échéant juridiquement leur maladie à une exposition professionnelle113. Comme le relevait l’Agence européenne pour la santé et sécurité au travail dans un rapport de 2014114, il existe un déficit notable d’information sur les conditions d’exposition des travailleur·euses en situation réelle de travail qui entrave l’élaboration de mesures préventives. Parmi les sources françaises qui produisent une telle connaissance, le rapport fait référence à l’enquête permanente du Groupement scientifique sur les cancers d’origine Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 160 professionnelle en Seine-Saint-Denis, le Giscop93. Ce groupe de recherche a mis en place, il y a près de vingt ans, une méthodologie innovante pour explorer les activités de travail exposant aux cancérogènes des patient·es atteints de cancer hospitalisé·es dans un département particulièrement sinistré de la région d’Île-de-France. Il s’agit de reconstituer, sur la base de la mémoire de la travailleuse ou du travailleur, une fine description, poste par poste, de l’ensemble de ses activités de travail. Cette reconstitution est ensuite soumise à un groupe d’experts chargé d’identifier les travaux qui ont exposé la travailleuse ou le travailleur ou qui ont pu l’exposer à des cancérogènes115. Le résultat de cette évaluation est mis en regard avec la règlementation sur les maladies professionnelles et une préconisation quant à l’opportunité d’une demande de reconnaissance au titre de ce régime est effectuée. 115 Thébaud-Mony, A. (2008). Construire la visibilité des cancers professionnels. Revue française des affaires sociales, 1(2), 237. https://doi.org/10.3917/rfas.082.0237 116 Le constat de diagnostics très tardifs a pu être observé concernant les patientes/s de l’enquête atteintes/s de cancers pulmonaires. 117 Lecocq, C., Dupuis, B., Forest, H., & Lanouzière, H. (2018). Santé au travail : vers un système simplifié pour une prévention renforcée (Rapport au Premier ministre). 118 Frimat, P. (2018). Mission relative à la prévention et à la prise en compte de l’exposition des travailleurs aux agents chimiques dangereux (Rapport au Ministère du Travail). 119 Borowczyk, J., & Dharréville, P. (2018). Rapport de la commission d’enquête sur les maladies et pathologies professionnelles dans l’industrie (risques chimiques, psychosociaux ou physiques) et les moyens à déployer pour leur élimination (Rapport d'enquête n°1181). 120 A l’exception de la Confédération générale du travail (CGT). 121 Loi n° 2021-1018, JORF n°0178 du 3 août 2021. 122 L’exposé des motifs du projet de loi faisait explicitement état de cette volonté énonçant qu’« une culture de la prévention doit prévaloir sur des mécanismes de réparation des atteintes à la santé des travailleur ». 123 Organisé en quatre axes : renforcer la prévention au sein des entreprises et décloisonner santé publique et santé au travail ; définir une offre socle de services à fournir par les services de santé au travail ; mieux accompagner certains publics vulnérables et lutter contre la désinsertion professionnelle ; réorganiser la gouvernance du système de santé au travail. 124 Articles R4121-1 à R4121-4 du Code du travail. 125 Mentionnés à l’article L. 4644-1, I, du Code du travail. 126 Rebaptisé « services de prévention et de santé au travail » (SPST). 127 L’article 3 de la loi prévoit que le document et ses mises à jour seront archivés sur un portail numérique déployé par les organisations patronales représentatives au niveau national et interprofessionnel. 127 L’article 3 de la loi prévoit que le document et ses mises à jour seront archivés sur un portail n par les organisations patronales représentatives au niveau national et interprofessionnel. 126 Rebaptisé « services de prévention et de santé au travail » (SPST). 118 Frimat, P. (2018). Mission relative à la prévention et à la prise en compte de l’exposition des travailleurs aux agents chimiques dangereux (Rapport au Ministère du Travail). 119 Borowczyk, J., & Dharréville, P. (2018). Rapport de la commission d’enquête sur les maladies et pathologies professionnelles dans l’industrie (risques chimiques, psychosociaux ou physiques) et les moyens à déployer pour leur élimination (Rapport d'enquête n°1181). 120 A l’exception de la Confédération générale du travail (CGT) agents chimiques dangereux (Rapport au Ministère du Travail). 119 Borowczyk, J., & Dharréville, P. (2018). Rapport de la commission d’enquête sur les maladies et pathologies professionnelles dans l’industrie (risques chimiques, psychosociaux ou physiques) et les moyens à déployer pour leur élimination (Rapport d'enquête n°1181). 120 A l’exception de la Confédération générale du travail (CGT). 121 Loi n° 2021-1018, JORF n°0178 du 3 août 2021. 122 L’exposé des motifs du projet de loi faisait explicitement état de cette volonté énonçant qu’« une culture de la prévention doit prévaloir sur des mécanismes de réparation des atteintes à la santé des travailleur ». 123 Organisé en quatre axes : renforcer la prévention au sein des entreprises et décloisonner santé publique et santé au travail ; définir une offre socle de services à fournir par les services de santé au travail ; mieux accompagner certains publics vulnérables et lutter contre la désinsertion professionnelle ; réorganiser la gouvernance du système de santé au travail. 2.2. Les chaînons manquants à la circularité du lien entre prévention et réparation En cas d’éligibilité, elle ou il est accompagné·e dans la procédure de reconnaissance à engager devant sa caisse d’assurance maladie d’affiliation. Cette enquête originale permet de produire à la fois de la connaissance sur les expositions des travailleur·euses aux cancérogènes et sur le fonctionnement du système de prise en charge des pathologies professionnelles. Les données rétrospectives et prospectives recueillies révèlent l’incidence autrement peu visible des manquements aux règles de prévention sur le droit à l’indemnisation des travailleur·euses. Peuvent ainsi être relevés non exhaustivement : le défaut quasi systématique de transmission des documents de suivi individuel des expositions; l’absence d’information et de formation des salarié·es sur les risques; le défaut d’équipement de protection individuelle et/ou collective; l’absence de déclaration des procédés à risque prévue par l’article L.461-4 du CSS; l’absence de suivi médical post-professionnel qui permettrait un diagnostic précoce de la pathologie et donc un traitement avec de meilleures chances de survie116. Les difficultés de mise en œuvre de la réglementation sur les risques professionnels ont récemment mené à l’ouverture de débats politiques dans le but d’aboutir à une réforme globale. Trois rapports ont vu le jour en 2018 autour du sujet de la santé au travail, émettant respectivement, seize117, Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 161 122 L’exposé des motifs du projet de loi faisait explicitement état de cette volonté énonçant qu’« une culture de la prévention doit prévaloir sur des mécanismes de réparation des atteintes à la santé des travailleur ». 123 Organisé en quatre axes : renforcer la prévention au sein des entreprises et décloisonner santé publique et santé au travail ; définir une offre socle de services à fournir par les services de santé au travail ; mieux accompagner certains publics vulnérables et lutter contre la désinsertion professionnelle ; réorganiser la gouvernance du système de santé au travail. g y 124 Articles R4121-1 à R4121-4 du Code du travail. p g 121 Loi n° 2021-1018, JORF n°0178 du 3 août 2021. 125 Mentionnés à l’article L. 4644-1, I, du Code du tra Cancers professionnels 161 vingt-trois118 et quarante-trois119 recommandations visant à améliorer la gestion des risques professionnels. Puis, dans la continuité d’un accord national interprofessionnel sur la santé au travail conclu entre les organisations patronales et les syndicats de salariés à la fin de l’année 2020120, une réforme ambitieuse a finalement été adoptée au cours de l’été 2021. La loi « pour renforcer la prévention en santé au travail »121 en date du 2 août 2021, apporte des modifications substantielles à la règlementation en vigueur, spécifiquement orientées sur la prévention primaire des risques122. Sans revenir sur l’intégralité des dispositions prévues par le texte123, certaines d’entre elles doivent être relevées dans le cadre de la présente analyse. Sur le plan collectif tout d’abord, la loi réaffirme le rôle majeur du Document unique d’évaluation des risques (DUER)124 dans la stratégie de prévention mise en place par l’employeur. Ce document qui se présente comme un inventaire des risques au sein de l’entreprise sert de base à l’élaboration d’actions de prévention. Les nouveautés apportées à ce dispositif sont, d’une part, l’instauration d’une obligation de consultation du Comité social économique (CSE), instance de représentation du personnel, lorsqu’il en existe un, dans le cadre de son élaboration. Le texte précise également que l’employeur peut se faire assister dans cette tâche par une diversité d’acteurs125 comprenant notamment les services de santé au travail126. D’autre part, le document et ses mises à jour doivent être conservés par l’employeur et « tenu à la disposition des travailleurs, des anciens travailleurs ainsi que de toute personne ou instance pouvant justifier d'un intérêt à y avoir accès » durant une période d’au moins 40 ans127. Le DUER devient le document référence en matière de traçabilité des risques professionnels. 126 Rebaptisé « services de prévention et de santé au travail » (SPST). p p ( ) 127 L’article 3 de la loi prévoit que le document et ses mises à jour seront archivés sur un portail numérique déployé par les organisations patronales représentatives au niveau national et interprofessionnel. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 162 Cancers professionnels 162 Malgré l’intérêt de ces mesures que l’on peut souligner, il convient également de rester prudent quant à la portée réelle qu’elles auront. En effet, alors que le DUER avait été créé en 2001128, en 2016 moins de la moitié des entreprises l’avaient réellement mis en place129. 128 Décret n°2001-1016 du 5 novembre 2001 portant création d'un document relatif à l'évaluation des risques pour la santé et la sécurité des travailleurs. 129 DARES. (2016). La prévention des risques professionnels (DARES Analyses n°13). 130 V. Fantoni-Quinton, S. (2018). L’absence de traçabilité des expositions aux cancérogènes : une aubaine pour les employeurs ? RDSS, 605. 131 V. not. Barlet, B., & Malarmey, H. (2020). Les conditions concrètes du recueil des données de l’enquête Sumer 2016-2017 : un regard à travers deux études sociologiques (Rapport d’études n°2, DARES). 132 Recommandation CEE du 23 juillet 1962, JOCE, no 80, 31 août 1962, p. 2181 et du 9 août 1966, JOCE, 147, 9 août 1966, p. 2696. 133 Artano, S., & Gruny, P. (2019). Pour un service universel de santé au travail (Rapport d'information). 134 Keim-Bagot, M. (2017). Santé au travail, multifactorialité et présomption d’imputabilité : l’équation impossible ? Les cahiers sociaux, (301). Cancers professionnels 161 Ce document ne rend pas compte des expositions individuelles aux risques, mais uniquement du risque collectif, sans garantie qui plus est d’être exhaustif. La réforme laisse ainsi perdurer un manque de traçabilité des expositions individuelles aux cancérogènes préjudiciable à leur prévention et à l’action en indemnisation de potentielles victimes130. Au niveau individuel, l’article 5 de la loi renforce le suivi médical des salarié·es en prévoyant notamment que le médecin du travail constatant une exposition à certains risques dangereux, dont les risques chimiques, devra mettre en place une surveillance « post-exposition ou post- professionnelle », en lien avec le médecin traitant et le médecin-conseil de la sécurité sociale, ce qui, jusqu’à présent, n’était pour lui qu’une simple faculté. Reste à savoir si en cas de défaut de mention de tels risques dans le DUER, le médecin sera en mesure de relever par lui-même la ou les expositions, compte tenu des difficultés de leur repérage et évaluation dont ils ont déjà pu faire l’aveu131. Ce même article 5 prévoit également une redéfinition, par décret, des règles de prévention des risques chimiques qui devra tenir compte des « situations de poly-expositions ». Il est difficile pour l’heure d’avoir une idée de l’incidence de cette disposition. Les règles de reconnaissance des ATMP ne sont pas visées par cette réforme, mais le régime a lui aussi fait l’objet d’un certain nombre d’évolutions importantes ces dernières années. Ce sont surtout les règles ayant trait à la procédure d’instruction des déclarations ou des demandes de reconnaissance par les caisses d’assurance maladie qui ont été modifiées avec un allongement des délais d’instruction et une dématérialisation quasi complète de la procédure. Le premier constat possible à observer concernant la déclaration des cancers est que ces règles tendent à renforcer les difficultés du côté du malade à s’engager dans ce processus complexe, notamment du fait d’un manque d’accès à l’outil informatique ou de maîtrise de ce dernier. Sur le fond, les conditions de la reconnaissance des maladies professionnelles restent inchangées. Pour autant, certains rapports récents Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 163 Cancers professionnels 163 avancent des propositions s’attaquant directement à la présomption d’imputabilité, socle du régime. À rebours des recommandations déjà anciennes de l’UE préconisant la suppression des critères restrictifs de définition des maladies professionnelles132, le rapport d’un professeur de médecine du travail préconise l’introduction d’un diagnostic différentiel dans les tableaux. Il s’agirait concrètement d’inscrire à côté de la désignation de la maladie des examens complémentaires permettant de mieux « caractériser la pathologie et d’éliminer des causes extra professionnelles » et de préciser « pour certaines pathologies plurifactorielles, de façon explicite et limitative, la ou les affections à éliminer ». L’avantage serait selon lui de « permettre le maintien d’une présomption d’imputabilité, tout en “l’aménageant” ». Un autre rapport133 propose pour certaines pathologies de procéder au calcul d’un pourcentage de risque attribuable pour déterminer l’origine professionnelle de la maladie en tenant compte des facteurs non professionnels dans l’émergence et l’évolution de la maladie. Le caractère multifactoriel des maladies professionnelles est depuis quelques années désigné comme constituant une difficulté nouvelle, expliquant la crise de légitimité du régime. Or, la question de savoir si l’affection résulte des conditions de travail ou bien de facteurs extraprofessionnels propres au travailleur constitue, au même titre que l’était la cause de l’accident du travail, la raison d’être du compromis instauré par le régime de réparation. En contrepartie de l’admission d’une présomption d’imputabilité au bénéfice de la victime, la réparation de son préjudice n’est que partielle. Cette question de la multifactorialité, loin d’être nouvelle, est consubstantielle aux maladies professionnelles134. Ces propositions témoignent d’une quête d’objectivation scientifique toujours plus grande quant à la reconnaissance du caractère professionnel d’une pathologie et de la tendance toujours forte à minimiser le rôle du travail dans l’apparition du cancer au profit des comportements individuels à risque. Or, cette vision médico-scientifique méconnaît le raisonnement juridique de causalité qui n’est pas de déterminer avec certitude la cause d’un dommage, mais de vérifier si un lien suffisant entre un préjudice et un Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 164 fait dommageable, ici une contribution notable du travail à l’apparition du cancer, peut être caractérisé135. Pour se convaincre de la prudence à avoir quant au recours proposé à la probabilité de causalité, ou calcul de parts de risque attribuable, un parallèle peut être effectué avec le régime d’indemnisation des victimes des essais nucléaires. 135 En ce sens, Saint-Jours, Y., (1991), « Normaliser l’indemnisation des victimes de maladies d’origine professionnelle », JCP, E, 50.; Leroy, P. (1984). Les problèmes médicaux légaux des cancers professionnels, Histoire des accidents du travail, LHDS, (17). 136 La loi n° 2010-2 du 5 janvier 2010 dite loi « Morin ». 137 V. Reymond-Kellal, R. (2015). Le contentieux de l'indemnisation des conséquences dommageables des essais nucléaires menés en Polynésie française. RFDA, (04), 795. 138 Loi n° 2017-256 du 28 février 2017 de programmation relative à l'égalité réelle outre-mer. 139 Article 232 de la loi du 28 décembre 2018 de finances pour 2019. 140 Counil, E., & Henry, E. (2019). Is It Time to Rethink the Way We Assess the Burden of Work-Related Cancer? Current Epidemiology Reports, 6(2), 138–147. https://doi.org/10.1007/s40471-019-00190-9 Cancers professionnels 163 Le régime mis en place par la loi de 2010136 prévoyait une présomption d’imputabilité de certaines pathologies radio-induites aux essais nucléaires dès lors que la victime justifiait sa présence dans les zones concernées et à des périodes définies. Cette présomption n’était pas irréfragable et pouvait être renversée s'il était établi « qu'au regard de la nature de la maladie et des conditions de son exposition le risque attribuable aux essais nucléaires puisse être considéré comme négligeable ». Il appartenait au Comité d'indemnisation des victimes des essais nucléaires (CIVEN) d’évaluer, selon une méthode d'analyse de probabilité, si la maladie était effectivement attribuable aux essais. Le recours à la statistique calculant la probabilité de causalité avait été pensé comme une mesure de simplification. Un constat établit en 2013 un taux de rejet de 98,7 % des demandes d’indemnisation : sur 840 demandes reçues par le CIVEN, seules 11 avaient été satisfaites. La notion de « risque négligeable » induisait le refus d’un grand nombre de demandes au motif que le risque d'un lien entre un cancer et les impacts des essais était inférieur à 1 %. Les données pouvant servir de base à l’élaboration du calcul de probabilité de causalité conduisaient intrinsèquement à ce faible pourcentage137. Une loi est venue supprimer la référence à ce critère de risque négligeable en 2017138. Cependant, la possibilité d’écarter la présomption d’imputabilité a été réintroduite par loi de 2018 en se référant cette fois à un seuil d’exposition139. Les outils statistiques sont utiles pour relever des corrélations informant sur la relation causale entre une pathologie et un risque donné. Leurs résultats ne doivent toutefois pas constituer le seul élément du jugement de causalité puisque, comme nous avons pu l’évoquer, ces outils présentent des limites dans leur appréhension des risques cancérogènes140. Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 165 Communitas, Vol. 2, No. 1 (2021) Cancers professionnels 165 En définitive, il est possible de conclure que les logiques d’indemnisation et de prévention des cancers professionnels, loin d’entrer en conflit, ont été pensées, il y a plus de cent ans, comme un ensemble de normes cohérentes devant mener à l’élimination des maladies professionnelles. Cependant l’inapplication d’une large partie de la règlementation en matière de prévention et les rigidités structurelles du système d’indemnisation ont mis à mal les ambitions premières du régime. Ces difficultés ont une incidence particulièrement grave concernant les cancers professionnels qui souffrent par voie de conséquence d’un manque de prévention effective et efficace d’une part, et d’une juste réparation d’autre part. Communitas, Vol. 2, No. 1 (2021) Communitas, Vol. 2, No. 1 (2021)
54,807
0854cbf087d2e9bd8a657192e875a07c_11
French-Science-Pile
Open Science
Various open science
2,023
RM przodostopia
None
French
Spoken
7,672
15,057
Notre protocole d’examen inclut des images coronales obliques, ciblées au niveau de la partie antérieure des métatarsiens et des articulations métatarso-phalangiennes, pondérées en T1 et en T2. L’injection de produit de contraste n’est pas réalisée systématiquement. Nous ajoutons également des séquences T2 SPIR sagittales, dans l’axe du 2e métatarsien, et des séquences T1 SPIR axiales, Fig. 6 : Echographie du névrome de Morton, plan sagittal Images échographiques obtenues sans compression avec le pouce gauche de l’examinateur (haut) et avec discrète (moyenne) et importante (bas) compression. Les images montrent un aspect quasi inchangé du névrome (1) et un changement significatif de la taille et forme de la bursite (2). Nerf plantaire = têtes de flèche. 228 C16 Delmi (OK).indd 228 1/06/11 14:03:29 Cheville et pied – Syndrome de Morton La bursite inter-capito-métatarsienne présente le même signal en T1 que le névrome. Par contre, en T2, elle est hyperintense, du fait du liquide intra-bursal et de l’inflammation de ses parois. La bourse est toujours en arrière du névrome. Un minime épanchement dans les bourses intermétatarsiennes peut se voir aussi dans les conditions normales [6]. destinées à l’étude des articulations métatarsophalangiennes et du tissu osseux. Le névrome de Morton à l’IRM prend la forme d’une petite masse iso-intense par rapport aux muscles en T1, localisée à la partie plantaire de l’espace inter-capitométatarsien. En T2, le signal du névrome est variable, habituellement hypo-intense avec quelques plages internes hyperintenses, moins intenses que la graisse ; l’image T2 est un peu plus petite que l’image T1. Le plan de référence en IRM est le plan coronal oblique. Le plan sagittal et le plan axial ne permettent presque jamais de mettre en évidence le névrome, mais elles visent à analyser les structures voisines. Examens électro-physiologiques Ils sont utiles dans le diagnostic différentiel pour exclure un syndrome compressif proximal ou une neuropathie, par exemple diabétique. La sensibilité de l’EMG est faible pour les compressions distales, alors qu’il se révèle un bon examen pour les compressions proximales du tunnel tarsien. Traitement Traitement conservateur En début de symptomatologie, il faut préconiser : 1) l’adaptation du chaussage : empeigne large pour éviter le serrage de la palette, talon de hauteur maximum 4-5 cm (avec diminution progressive), boîte antérieure de 2,5 cm de hauteur pour laisser libre jeu aux orteils ; 2) l’utilisation d’un support plantaire avec appui rétro-capital (sommet sous l’espace concerné et possible languette entre les têtes) [14] ; 3) la kinésithérapie : libération de l’avant-pied par rapport à l’arrière-pied et au genou, massages transverses profonds, diminution de toutes les tensions musculaires intrinsèques, permettant une diminution des griffes, étirement des gastrocnémiens ; 4) une infiltration de 2 ml de Xylocaïne à 1 % et de 1 ml d’un dérivé cortisoné [15] dans l’espace concerné. Fig. 7 : IRM du névrome de Morton, plan frontal. En haute séquence pondérée en T1, en bas pondérée en T2. Flèches blanches = névrome de Morton Flèche noire = bursite intercapitométatarsienne 229 C16 Delmi (OK).indd 229 1/06/11 14:03:29 Le pied Injection échoguidée du névrome de Morton de l’injection. Lors du remplissage de la bourse, un déplacement inférieur du névrome peut être constaté. Selon plusieurs articles, il est possible de guider un traitement percutané du névrome de Morton, principalement par échographie. Cette technique prévoit l’utilisation d’une échoscopie avec utilisation première d’une aiguille fine pour une anesthésie locorégionale, suivie, dans un second temps, d’une injection d’un dérivé cortisonique à la partie postérieure du névrome [13]. Une à trois infiltrations sont habituellement nécessaires pour une bonne résolution des symptômes. L’infiltration d’une petite quantité d’un mélange de cortisone, de Lidocaïne et d’une demi-ampoule de Diprophos peut être également réalisée dans le même temps dans les tissus péri-nerveux dans un but antalgique. Sa réalisation est très simple et presque toujours très bien tolérée. Avec ces différentes options, seules ou plus souvent combinées [14], environ 50 % des patients seront soulagés. En cas d’échec, l’intervention chirurgicale sera proposée. L’infiltration de la bourse inter-capito-métatarsienne peut également être aisément réalisée sous échographie. Nous utilisons la voie dorsale, après désinfection locale, en utilisant une barrette de type hockey stick et une aiguille Butterfly 25G (fig. 8). Après ponction de la peau, l’aiguille est repérée et aisément guidée à l’intérieur de la bourse. Une aspiration du liquide synovial est d’habitude impossible en raison de sa faible quantité et de l’épaississement des parois bursales. L’injection de produit cortisonique retard peut être suivie en temps réel. Nous injectons également quelques bulles d’air qui nous permettent un meilleur suivi Traitement chirurgical L’excision chirurgicale est encore considérée par beaucoup comme la règle du traitement chirurgical du syndrome de Morton. Elle consiste en l’excision du nerf plantaire atteint et de ses deux branches digitales (fig. 2). Souvent, à leur confluence, on découvre une masse ovoïde de quelques millimètres marquée à l’analyse histologique par la fibrose et la sclérose intra-neurale. Fig. 8 : Infiltration sous guidage échographique d’une bursite intercapitométatarsienne (plan sagittal). A gauche schéma montrant la technique de réalisation de l’infiltration par voie dorsale. En bleu, la bursite intercapitométatarsienne en jaune le nerf plantaire et le névrome. A droite image échographique correspondant à l’aiguille (têtes de flèche) avec la pointe dans la bourse (2). 1 = névrome. 230 C16 Delmi (OK).indd 230 1/06/11 14:03:29 Cheville et pied – Syndrome de Morton La technique opératoire est la suivante : • voie d’abord commissurale dorsale, plutôt que plantaire (fig. 9). La voie plantaire serait séduisante parce qu’elle donne un accès direct au nerf sans section du ligament intermétatarsien, si cette voie n’exposait au risque d’hyperkératose cicatricielle douloureuse et terriblement difficile à traiter ; on lui préfère donc la voie dorsale, qui permet une meilleure cicatrisation et une reprise rapide de l’appui ; Fig. 10 : Névrome “exubérant” dans la partie distale de l’incision. On obtient de bons résultats chez 80 à 90 % des patients [16]. L’hypoesthésie plantaire localisée et les dysesthésies sont fréquentes, voire normales. Peu gênantes, elles s’estompent complètement la plupart du temps, dans un délai variable. En cas de gêne importante, l’ergothérapie de désensibilisation est utile, associée, dans les cas les plus sévères, à des traitements médicamenteux : gabapentine, amytriptyline. La complication principale réside dans le développement d’un névrome du moignon (fig. 11). Si le nerf n’est pas sectionné suffisamment proximalement, le moignon va se retrouver en zone de charge avec des douleurs très violentes lors de l’appui au sol du pied [16]. Fig. 9 : Chirurgie : voie d’abord dorsale sur l’espace intermétatarsien. • le névrome apparaît alors rapidement, en profondeur et distalement, dans l’espace interdigital (fig. 10) ; • section du ligament inter-métatarsien, ou passage de chaque côté (un avantage de cette variante technique n’a pas été démontré), ce qui permet de disséquer le nerf plantaire et la branche collatérale vers le deuxième espace, très fréquemment présente ; • coagulation du nerf puis section très proximale. Cette situation invalidante peut nécessiter une nouvelle intervention chirurgicale, avec utilisation d’un tube veineux pour rediriger le moignon proximal du nerf plantaire vers le milieu du pied [17]. Ceci permet alors au futur névrome de se trouver dans une zone non douloureuse : 231 C16 Delmi (OK).indd 231 1/06/11 14:03:30 Le pied Fig. 11 : Névrome d’amputation. • voie plantaire en dehors des zones de charge (fig. 12), • excision du névrome du moignon et neurolyse du nerf plantaire, • prélèvement d’un segment de veine, saphène ou autre, et préparation de celui-ci (fig. 13), • introduction du moignon nerveux proximal dans le “tube veineux” et fixation de la veine aux tissus locaux (fig. 14), • l’ensemble “nerf-veine” est ensuite re-dirigé vers le milieu du pied, où il est amarré à l’aponévrose du dos du pied. Fig. 12 : Reprise chirurgicale par voie plantaire. C’est pour pallier les potentielles complications que divers auteurs ont préconisé la neurolyse chirurgicale plutôt que l’excision [18, 19]. Il s’agit de décomprimer le nerf plantaire en sectionnant le ligament intermétatarsien. Une section du périnèvre est parfois associée. Cette technique donne également de bons résultats, mais surtout dans les formes précoces, avec peu d’atteinte intranerveuse. Des études comparatives manquent actuellement pour pouvoir trancher entre les deux techniques. Il existe plusieurs techniques alternatives à la neurectomie classique par voie ouverte : la neurolyse par voie ouverte, percutanée ou par miniincision, l’utilisation de laser CO2, les infiltrations d’alcool, les injections locales de phénol sous guidage échographique ou d’un électrostimulateur, les ostéotomies percutanées du col métatarsien 232 C16 Delmi (OK).indd 232 1/06/11 14:03:30 Cheville et pied – Syndrome de Morton Fig. 13 : Préparation d’un “tube” veineux. Fig. 14 : Le moignon proximal du nerf plantaire est placé dans le segment de veine. morbidité. Les résultats sont parfois contradictoires, parfois encourageants, avec globalement de 75 à 85 % de bons résultats à deux ans, voire cinq ans, et méritent donc d’être confirmés par d’autres études consécutives et randomisées. Quelle que soit la technique, tous les auteurs s’accordent à dire qu’en cas de récidive, la neurectomie par voie chirurgicale ouverte dorsale ou plantaire reste alors la solution de choix. sans excision du névrome. Il faut aussi retenir l’allongement des gastrocnémiens permettant de réduire l’hyperappui sous les têtes métatarsiennes et donc de diminuer, voire de supprimer la compression responsable du syndrome d’enclavement neurologique. Il n’existe que des évaluations scientifiques souvent limitées de ces diverses techniques, particulièrement sur le long terme, avec peu de patients pour la plupart de ces études. Toutes ces techniques sont affectées d’un faible taux de Références [1] Durlacher L. Treatise on corns bunions, the disease of nails and the general management of the feet. London, Simpkin Marshall 1845; p 52. [7] Pollak RA, Bellacosa RA, Dornbluth NC, Strash WW, Devall JM. Sonographic analysis of Morton’s neuroma. J Foot Surg 1992;31:534-7. [2] Morton TG. A pecular and painful affection of the forth metatarsophalangeal articulation. Am J Med Sci, 1876; 71: 37-45. [8] Shapiro PP, Shapiro SL. Sonographic evaluation of interdigital neuromas. Foot Ankle Int 1995;16:604-6. [3] Betts LO. Morton’s metatarsalgia neuritis of the fourth digital nerve. Med J Aust 1940; 1: 514-15. [9] Quinn TJ, Jacobson JA, Craig JG, van Holsbeeck MT. Sonography of Morton’s neuromas. AJR Am J Roentgenol 2000;174:1723-8. [4] Nissen KI. Plantar digital neuritis: Morton metatarsalgia. J Bone Joint Surg (Br) 1948; 30: 84-94. [10] Martinoli C, Bianchi S, Cohen M, Graif M. Echographie des nerfs périphériques. J Radiol 2005;86:1869-78. [5] Mulder JD. The causative mechanism in Morton’s metatarsalgia. J Bone Joint Surg (Br) 1951; 33: 94-5. [11] Zanetti M, Strehle JK, Zollinger H, Hodler J. Morton neuroma and fluid in the intermetatarsal bursae on MR images of 70 asymptomatic volunteers. Radiology 1997;203:516-20. [6] Martinoli C, Bianchi S. Foot. In: Bianchi S, Martinoli C eds Ultrasound of the Musculoskeletal System. Medical Radiology, Diagnostic Imaging. Berlin: Springer. 2007: 823-4. 233 C16 Delmi (OK).indd 233 1/06/11 14:03:31 Le pied [12] Zanetti M, Strehle JK, Kundert HP, Zollinger H, Hodler J. Morton neuroma: effect of MR imaging findings on diagnostic thinking and therapeutic decisions. Radiology 1999;213:583-8. [16] Dereymaeker G, Schroven I, Steenwercks A, Stuer P. Results of the excision of the interdigital nerve in the treatment of the Morton’s metatarsalgia. Acta Orthop Belg 1996; 62: 22-5. [13] Fanucci E, Masala S, Fabiano S, et al. Treatment of intermetatarsal Morton’s neuroma with alcohol injection under US guide: 10-month follow-up. Eur Radiol 2004;14:514-8. [17] Schon LC, Lam PW, Easley ME, Anderson CD, Lumsden DB, Shanker J, Levin GB. Complex salvage procedures for severe lower extremity nerve pain. Clin Orthop Relat Res. 2001 Oct;(391):171-80. [14] Bennett GL, Graham CE, Mauldin DM. Morton’s interdigital neuroma: A comprehensive treatment protocol. Foot Ankle Int 1995; 16: 760-3. [18] Diebold PF, Daum B, Dang-Vu V, Litchinko M. True epineural neurolysis in Morton’s neuroma: A 5-year follow-up. Orthopedics 1996; 19: 397-400. [15] Greenfield J, Rea J, Ilfeld FW. Morton’s interdigital neuroma. Indications for treatment by local injections versus surgery. Clin Orthop Relat Res. 1984; 185: 142-4. [19] Okafor B, Shergill G, Angel J. Treatment of Morton’s neuroma by neurolysis. Foot Ankle Int 1997; 18: 284-7. 234 C16 Delmi (OK).indd 234 1/06/11 14:03:31 Les bursopathies de l’avant-pied N. Theumann Introduction Anatomie Les bursopathies des membres inférieurs ont souvent une cause mécanique, en particulier lors de la pratique du sport et en présence de troubles statiques, des avant-pieds notamment. Parmi les autres causes de bursopathies, il faut mentionner aussi les rhumatismes inflammatoires, en particulier la polyarthrite rhumatoïde, les rhumatismes microcristallins (dépôts de cristaux d’urate de sodium ou dépôts d’apatite) et les infections qui sont à rechercher chez les patients présentant des facteurs prédisposants (diabète, excoriations cutanées, etc.). Les espaces intermétatarsiens Les espaces intermétatarsiens sont décrits comme séparés en deux niveaux par le ligament intermétatarsien transverse profond. Au-dessus de ce ligament, limité latéralement par les structures capsulaires des articulations métatarso-phalangiennes, on décrit le niveau supérieur qui contient les tendons interosseux, le tendon de l’adducteur du gros orteil dans le premier espace intermétatarsien, et les bourses intermétatarsiennes. Sous ce ligament, on décrit un canal fibreux, limité vers le haut par ce ligament intermétatarsien transverse profond et inférieurement par le ligament intermétatarsien transverse superficiel. Il est limité bilatéralement par des fibres perforantes. Ce niveau inférieur contient les muscles lombricaux et le paquet neurovasculaire interdigital (fig. 1). Le traitement des bursopathies des membres inférieurs est avant tout conservateur. Il est exceptionnel que l’on doive recourir à la chirurgie, mais ceci est parfois le cas lorsqu’il s’agit d’améliorer les conflits d’ordre mécanique. Dans les 2e, 3e et 4e espaces intermétatarsiens, les bourses sont situées entre les tendons interosseux et les complexes ligamentaires collatéraux. À cet endroit, la bourse a une apparence similaire pour chacun de ces espaces, c’est-à-dire elliptique, presque ovale, avec un axe longitudinal proximo-distal et dorso-plantaire (fig. 2). La limite supérieure des bourses intermétatarsiennes ne dépasse pas les tendons interosseux. La première bourse intermétatarsienne a des caractéristiques différentes. Elle est située entre le tendon interosseux dorsal médial et le complexe du ligament collatéral de la seconde articulation métatarsophalangienne, et entre le tendon de l’adducteur du Généralités Les bourses sont des espaces virtuels qui ne contiennent pas de liquide synovial dans des conditions physiologiques. Elles sont nombreuses. Elles ont un revêtement cellulaire de synoviocytes peu différenciés. Elles contiennent, en cas de réaction mécanique ou inflammatoire, du liquide synovial. Certaines bourses sont anatomiquement préexistantes, d’autres, néoformées, se développent en situation pathologique sous l’influence de mouvements imprimés à différentes structures mobiles. 235 C17 Theumann (OK).indd 235 3/06/11 11:55:13 Le pied Fig. 1 : Vue transverse des espaces intermétatarsiens inférieurs et supérieurs. 1. tendons interosseux dorsaux 2. tendons interosseux plantaires 3. muscles lombricaux 4. tendon adductor hallucis 5. ligament intermétatarsien transverse profond 6. ligament intermétatarsien transverse superficiel 7. fibres perforantes 8. os sésamoïde latéral 9. faisceaux neurovasculaires 10. tendons fléchisseurs communs Tiré et avec l’autorisation de : Theumann NH, Pfirrmann CW, Chung CB, Mohana-Borges AV, Haghighi P, Trudell DJ. et al. Intermetatarsal spaces: analysis with MR bursography, anatomic correlation, and histopathology in cadavers. Radiology. 2001 Nov;221(2):478-84. gros orteil et le complexe ligamentaire latéral de la première articulation métatarso-phalangienne. La forme de cette bourse est aussi différente ; elle est orientée le long du tendon de l’adducteur du gros orteil comme une gaine tendineuse [1, 2] (fig. 3). a b Fig. 3 : Coupe de burso-IRM (a) et vue d’une coupe anatomique (b) coronale des 3 premières articulations métatarsophalangiennes. Appréciez la forme spécifique de la 1re bourse intermétatarsienne entre le tendon adductor hallucis (flèche fine) et le tendon interosseux dorsal médial du 2e rayon (flèche large en trait pointillé). Remarquez l’extension distale de la bourse du 2e espace intermétatarsien au niveau de l’insertion distale des tendons interosseux (flèche pointillée). Fig. 2 : Image radiologique de face d’un spécimen anatomique après bursographie des 4 bourses intermétatarsiennes. 236 C17 Theumann (OK).indd 236 3/06/11 11:55:14 Les bursopathies de l’avant-pied D’un point de vue histologique, les bourses intermétatarsiennes se présentent comme un espace bordé par des cellules allongées, aplaties, comportant un noyau aplati en son sein, entourées par un tissu conjonctif vasculaire abondant [1, 4]. Ces différentes bourses sont au contact direct du ligament intermétatarsien transverse profond sur leur bord inférieur. Dans le 2e et le 3e espace intermétatarsien, ces dernières s’étendent jusqu’à l’insertion distale des tendons interosseux, c’està-dire au-delà du bord distal du ligament intermétatarsien transverse profond. Elles deviennent ainsi des bourses intermétatarso-phalangiennes [3]. Dans cette localisation distale, on peut toujours mettre en évidence une proximité immédiate entre ces bourses et le paquet neurovasculaire (fig. 4). Cette proximité n’est jamais mise en évidence dans le 1er et le 4e espace. Dans le 4e espace intermétatarsien, la bourse prend son origine proximalement par rapport au ligament intermétatarsien transverse profond et ne s’étend pas au-delà de celui-ci. Il reste donc strictement intermétatarsien et non intermétatarso-phalangien. Ces bourses ne présentent pas de communication avec les articulations métatarso-phalangiennes adjacentes. Au niveau inférieur de ces espaces intermétatarsiens, c’est-à-dire sous le ligament intermétatarsien transverse profond, on peut mettre en évidence les muscles lombricaux qui prennent naissance le long des fibres perforantes sur le côté médial des tendons fléchisseurs digitaux communs. Les faisceaux neurovasculaires s’étendent dans une localisation juste plantaire par rapport aux ligaments intermétatarsiens transverses profonds, au-dessus du coussinet adipeux. Dans le 2e et le 3e espace intermétatarsiens, au niveau de l’extrémité distale du ligament intermétatarsien transverse profond, les faisceaux neurovasculaires s’étendent dans cet espace jusqu’au contact de la bourse intermétatarsienne comme je l’ai décrit précédemment [1]. De même, si l’on considère le niveau inférieur, dans le 1er et le 4e espace intermétatarsien, aucune relation entre le paquet neurovasculaire et les bourses n’est mise en évidence. a b Fig. 4 : Coupe de burso-IRM (a) du 4e espace intermétatarsien et vue d’une coupe anatomique transverse (b) des 2e et 3e rayons au niveau des bases phalangiennes (au-delà du ligament intermétatarsien transverse profond). Les bourses intermétatarsiennes se situent entre les tendons interosseux (flèches). Remarquez la relation intime entre le paquet neurovasculaire et la bourse dans les 2e et 3e espaces (flèche pointillée). 237 C17 Theumann (OK).indd 237 3/06/11 11:55:14 Le pied Les bourses sous-capito-métatarsiennes être moins fréquente dans les 1er et 4e espaces inter­métatarsiens que dans le 2e et le 3e. Cette observation correspond tout à fait aux observations cliniques, c’est-à-dire le développement prédominant de névromes de Morton au niveau des 2e et 3e espaces intermétatarsiens [10, 11]. Les bourses ne s’étendent jamais sous le ligament intermétatarsien transverse profond, alors que les névromes de Morton sont localisés sur la face plantaire de ces ligaments. Donc, si l’on voit une anomalie morphologique ou une anomalie de signal dorsale au ligament intermétatarsien transverse profond, le diagnostic de bursite est bien plus probable que celui d’un névrome de Morton. Zanetti et coll. [12] considère que la présence de liquide dans les bourses intermétatarsiennes des trois premiers espaces peut être considérée comme physiologique si elles ont un diamètre transverse de moins de 3 mm. En effet, dans un collectif de 70 patients asymptomatiques, leur étude retrouve du liquide dans au moins une bourse des trois premiers espaces intermétatarsiens chez 67 % de ces volontaires sains. Par ailleurs, la prévalence de la présence de liquide est plus importante chez des volontaires féminines saines portant des chaussures à talon. Cette constatation apporte un argument supplémentaire à la théorie d’irritation neurale comme étiologie du névrome de Morton. L’absence de liquide dans la bourse du 4e espace intermétatarsien est peut-être due à la différence anatomique entre cet espace et les trois premiers et les contraintes mécaniques entre les structures anatomiques. Si l’on examine en histologie le pannicule adipeux plantaire sous les têtes métatarsiennes, il correspond à une fibrose dans laquelle sont creusées des cavités ressemblant à des bourses. Ces bourses sont classées différemment si elles sont bordées ou non par des cellules synoviales. Elles peuvent être déjà présentes dans le cas des bourses synoviales, ou se développer secondairement au sein du tissu adventitiel [5]. Les bourses synoviales sous-cutanées diminuent la friction entre la peau et les protubérances osseuses sus-jacentes. Les bourses adventitielles peuvent se former chez l’adulte dans d’autres sites où les tissus sous-cutanés sont exposés à une importante friction et une importante pression [6]. Il s’agit d’une cavité sous-cutanée qui se crée secondairement à une dégénérescence du tissu conjonctif. Les bourses adventitielles ne sont pas bordées par du tissu épithélial [7]. Ces bourses adventitielles sous-capitométatarsiennes ressemblent à celles que l’on peut mettre en évidence au niveau des zones de friction sous-cutanées chez les patients portant une prothèse suite à une amputation [8]. Pathologies Bursites intermétatarsiennes Les bursites intermétatarsiennes sont des causes bien connues de métatarsalgies [9]. La pathogenèse de cette maladie reste peu claire, mais peut être assimilée à celle décrite pour les névromes de Morton. Une étude a suggéré que les bourses enflammées pouvaient venir comprimer et altérer les nerfs interdigitaux [9], alors qu’une autre étude évoque plutôt leur responsabilité dans l’apparition d’une neurofibrose secondaire [9]. Basée sur la description anatomique de ces bourses, si l’on tient compte de l’extension distale des bourses intermétatarsiennes, l’irritation des nerfs interdigitaux par une bourse élargie et enflammée devrait D’un point de vue clinique, s’il y a un doute diagnostique avec un syndrome canalaire, une tendinopathie ou une métatarsalgie, l’apport de l’imagerie devient essentiel. En échographie, la bursite est une masse plus ou moins hypoéchogène intermétatarsienne, comme le névrome de Morton, mais sans raccordement avec le nerf, se collabant quasiment complètement lors de la compression (fig. 5). Elle 238 C17 Theumann (OK).indd 238 3/06/11 11:55:14 Les bursopathies de l’avant-pied Fig. 6 : Image IRM axiale pondérée T2 avec saturation de la graisse montrant une bursite du 3e espace intermétatarsien fusant dans l’espace inférieur au contact du paquet vasculonerveux interdigital (flèche). Bursites sous-capito-métatarsiennes Fig. 5 : Image échographique axiale de la face plantaire du 3e espace intermétatarsien. Importante bursite intermétatarsienne à parois épaisses et centre liquidien. (flèche = bursite). (Image du Dr Henri Guerini). Dans un collectif de patients asymptomatiques, on peut mettre en évidence du tissu fibreux réactionnel induit par un stress mécanique au niveau des têtes métatarsiennes sur leur face plantaire dans le tissu sous-cutané [8]. En IRM, ce tissu fibreux peut être visible au niveau de ces coussinets adipeux plantaires sous forme de plages de signal hypointenses sur les deux séquences T1 et T2. D’un point de vue histopathologique, ils correspondent à des degrés variables de fibrose dans le tissu adipeux. Studler U et coll. évoque la possibilité que les remaniements au sein de ce tissu adipeux puissent à la longue former une bourse adventitielle due à une réaction au stress mécanique [8]. Dans cette étude, une altération de signal sous la forme d’une hyperintensité de signal T2 était visible chez 50 % des patients symptomatiques et chez seulement 1 % des patients asymptomatiques. Deux des patients symptomatiques avaient démontré la présence d’une cavité adventitielle remplie de liquide, dont la nature histologique de bourse adventitielle a été prouvée après biopsie. La taille des altérations au sein de ce coussinet adipeux était bien plus grande chez les patients se présente en TDM comme une plage de densité comparable à celle du muscle, située entre deux têtes métatarsiennes, le plus souvent aplatie transversalement, à développement plus dorsal que le névrome, mais dont l’aspect est très voisin. En IRM, la bursite apparaît comme une zone en hyposignal T1, ne prenant le contraste qu’en périphérie, en hypersignal franc T2 (ce qui permet de la différencier facilement d’un névrome de Morton dont l’hypersignal T2 est très hétérogène et rarement franc) (fig. 6). Le traitement de la bursite consiste à supprimer la cause du conflit intermétatarsien : chaussures trop étroites ou troubles statiques de l’avant-pied. L’infiltration de cortisone peut aussi s’avérer efficace dans certains cas. 239 C17 Theumann (OK).indd 239 3/06/11 11:55:14 Le pied Il est également nécessaire de différencier ces bursites adventitielles d’autres lésions nodulaires de l’avant-pied (nodule rhumatoïde ou schwannome [bénin] et sarcome synovial [malin]) [14]. Enfin, le névrome de Morton ou la fibromatose plantaire sont facilement identifiables et differentiables par leur localisation et ne devraient pas entrer dans le diagnostic différentiel [8]. symptomatiques (20 mm versus 9 mm), et proportionnellement plus souvent sous le second et le 3e métatarsien, comparé aux altérations visibles chez les patients asymptomatiques plus fréquentes sous le 1er et le 5e métatarsien. Les altérations de signal à l’IRM seraient donc plutôt le fait de points de pressions des zones de charge chez les patients asymptomatiques. Si l’on se réfère au modèle tripode d’une personne en charge, la pression du pied est supportée par le talon, la tête du 1er et la tête du 5e métatarsien [13]. À l’inverse, les altérations de signal chez les patients symptomatiques sont plus souvent situées au niveau des 2e et 3e métatarsiens, probablement du fait d’une pathogenèse différente de ces lésions. Il est à noter que dans l’étude de Studler, aucune relation entre les bursites et une éventuelle pathologie articulaire, une lésion des plaques plantaires ou des tendons et des gaines tendineuses n’a été retrouvée. En IRM, les bursopathies adventitielles sous-capito-métatarsiennes apparaissent sous la forme d’une altération de signal en pondération T1 (isoà hypointenses), hétérogènes à hyperintenses en pondération T2 et pouvant se rehausser de manière hétérogène ou en périphérie. L’échographie peut ici avoir une certaine utilité en raison de la situation superficielle de ces bourses (fig. 7). Elles apparaissent sous la forme de zones anéchogènes ou parfois hétérogènes au sein du tissu adventitiel, associées plus ou moins à une hypervascularisation locale ou en périphérie de cette bourse chez les patients symptomatiques (fig. 8). Ces bourses peuvent parfois se calcifier et apparaissent alors hypointenses sur toutes les séquences IRM ou provoquent un cône d’ombre en échographie. Fig. 7 : Image échographique axiale de la face plantaire de l’espace sous capital du 3e métatarsien. Importante bursite fusant sous la pression de la sonde bilatéralement des 2 côtés des tendons fléchisseurs. (tête de flèche = bursite, fl = tendons fléchisseurs). (Image du Dr Henri Guerini). Le diagnostic différentiel doit aussi se faire avec un granulome ou un abcès sur corps étranger (échardes morceaux de verre), la localisation est alors particulièrement importante (zones d’appui). Fig. 8 : Image échographique axiale de la face plantaire de l’espace sous capital du 3e métatarsien. Bursite à parois épaisses de localisation plantaire par rapport aux tendons fléchisseurs, fusant médialement. (flèche = bursite, 3 = tête du 3e métatarsien). (Image du Dr Henri Guerini). 240 C17 Theumann (OK).indd 240 3/06/11 11:55:15 Les bursopathies de l’avant-pied Les bursopathies par dépôts de cristaux sont également rares [17]. Une bursite pourrait se développer en regard d’un tendon présentant des dépôts de cristaux de pyrophosphate de calcium venant se déverser dans une bourse adjacente. Les bursopathies par dépôts de cristaux d’apatite se développent, elles, plus fréquemment dans les bourses médiales des hallux, de préférence chez les femmes jeunes, et miment, par là même, une bursite goutteuse ou septique. Des calcifications peuvent s’observer en radiographie standard. Ces calcifications disparaissent généralement dans les semaines qui suivent l’accès inflammatoire. Plus rarement, leur persistance peut induire une bursopathie chronique. Ces bursopathies par dépôts de cristaux d’apatite sont favorisées par l’insuffisance rénale chronique et l’hémodialyse chronique. Le traitement doit reposer sur une orthèse plantaire adaptée en matériaux amortissants, parfois associée à un traitement anti-inflammatoire local ou à une infiltration de cortisone dirigée sous contrôle échographique. Étiologies et facteurs favorisant des bursopathies de l’avant-pied En dehors des facteurs mécaniques déjà évoqués, d’autres étiologies peuvent favoriser l’apparition de bursites de l’avant-pied. Elles passent volontiers inaperçues à l’examen clinique, en particulier dans la polyarthrite rhumatoïde (PR) où elles sont très fréquentes et apparaissent comme un facteur contributif aux pathologies de l’avant-pied indépendamment de l’activité de la maladie. Dans cette population, Bowen CJ et coll. [15] a montré une prévalence des bursopathies de l’avant-pied à l’échographie chez 92,6 % des patients, alors que seules 23,5 % d’entre elles n’étaient détectables cliniquement. Ceci suggère que les bursopathies de l’avant-pied nécessitent une attention clinique plus importante pour faciliter la prise en charge de l’évolution de la maladie chez les patients présentant une polyarthrite rhumatoïde. Le traitement de ces cas précis comprendrait les médicaments de base de la PR, des gestes locaux (injections de corticoïdes) en évitant une injection intratendineuse et la mise en place d’orthèses plantaires de décharge. En revanche, dans les spondylarthropathies, l’atteinte des bourses est exceptionnelle. Enfin, il a été décrit quelques rares cas de bursopathies par dépôts de cristaux de cholestérol chez les patients présentant une polyarthrite rhumatoïde. Ces dépôts sont le reflet d’une synovite persistante [17]. Conclusion Les bursopathies de l’avant-pied peuvent être présentes chez les patients asymptomatiques. Les bourses intermétatarsiennes sont significativement plus symptomatiques lorsqu’elles mesurent plus de 3 mm dans leur diamètre transverse. Le diagnostic de bursite sous-capito-métatarsiennes est aisé en échographie et en IRM. Les altérations de signal des pannicules adipeux sous-métatarsiens à l’IRM sont souvent asymptomatiques et se caractérisent, dans ce cas-là, par leur petite taille (inférieure à 14 mm), leur signal d’aspect hétérogène et intermédiaire en pondération T2 et leurs limites floues. Les bursopathies d’origine infectieuses sont rares, le germe le plus souvent en cause étant le staphylocoque aureus [16]. Des dermabrasions à proximité de la bursite peuvent en être l’origine, l’infection étant favorisée par le diabète, l’insuffisance rénale ou un état d’immunodéficience ainsi que des injections préalables de corticostéroïdes. 241 C17 Theumann (OK).indd 241 3/06/11 11:55:15 Le pied Références [9] Bossley CJ, Cairney PC. The intermetatarsophalangeal bursa--its significance in Morton’s metatarsalgia. J Bone Joint Surg Br. 1980 May;62-B(2):184-7. [1] Theumann NH, Pfirrmann CW, Chung CB, MohanaBorges AV, Haghighi P, Trudell DJ. et al. Intermetatarsal spaces: analysis with MR bursography, anatomic correlation, and histopathology in cadavers. Radiology. 2001 Nov;221(2):478-84. [10] Schwalbe G. The tendon sheats and synovial bursae of the foot: by Gustav Schwalbe, 1896-translated by Hartmann. Foot Ankle 1981; 1: 246-269. [2] Theumann NH, Pfirrmann CW, Mohana Borges AV, Trudell DJ, Resnick D. Metatarsophalangeal joint of the great toe: normal MR, MR arthrographic, and MR bursographic findings in cadavers. J Comput Assist Tomogr. 2002 SepOct;26(5):829-38. [11] Zanetti M, Strehle JK, Kundert HP, Zollinger H, Hodler J. Morton neuroma: effect of MR imaging findings on diagnostic thinking and therapeutic decisions. Radiology. 1999 Nov;213(2):583-8. [3] Mohana-Borges AV, Theumann NH, Pfirrmann CW, Chung CB, Resnick DL, Trudell DJ. Lesser metatarsophalangeal joints: standard MR imaging, MR arthrography, and MR bursography--initial results in 48 cadaveric joints. Radiology. [Comparative Study]. 2003 Apr;227(1):175-82. [12] Zanetti M, Strehle JK, Zollinger H, Hodler J. Morton neuroma and fluid in the intermetatarsal bursae on MR images of 70 asymptomatic volunteers. Radiology. 1997 May;203(2):516-20. [4] Claustre J, Bonnel F, Constans JP, Simon L. The intercapital metatarsal space. Anatomical and pathological aspects. Rev Rhum Mal Osteoartic. 1983 May;50(6):435-40. [13] Hennig EM, Milani TL. The tripod support of the foot. An analysis of pressure distribution under static and dynamic loading. Z Orthop Ihre Grenzgeb. 1993 May Jun;131(3):279-84. [5] Chowchuen P, Resnick D. Stress fractures of the metatarsal heads. Skeletal Radiol. 1998 Jan;27(1):22-5. [14] Wetzel LH, Levine E. Soft-tissue tumors of the foot: value of MR imaging for specific diagnosis. AJR Am J Roentgenol. 1990 Nov;155(5):1025-30. [6] Resnick D. Articular anatomy and histology. Diagnostis of bone and joint disorders 3rd ed Philadelphia Pa: Saunders, 1995; 668.1995. [15] Bowen CJ, Culliford D, Dewbury K, Sampson M, Burridge J, Hooper L. et al. The clinical importance of ultrasound detectable forefoot bursae in rheumatoid arthritis. Rheumatology (Oxford). 2010 Jan;49(1):191-2. [7] Foisneau-Lottin A, Martinet N, Henrot P, Paysant J, Blum A, Andre JM. Bursitis, adventitious bursa, localized soft-tissue inflammation, and bone marrow edema in tibial stumps: the contribution of magnetic resonance imaging to the diagnosis and management of mechanical stress complications. Arch Phys Med Rehabil. 2003 May;84(5):770-7. [16] Garcia-Porrua C, Gonzalez-Gay MA, Ibanez D, Garcia-Pais MJ. The clinical spectrum of severe septic bursitis in northwestern Spain: a 10 year study. J Rheumatol. 1999 Mar;26(3):663-7. [8] Studler U, Mengiardi B, Bode B, Schottle PB, Pfirrmann CW, Hodler J. et al. Fibrosis and adventitious bursae in plantar fat pad of forefoot: MR imaging findings in asymptomatic volunteers and MR imaging-histologic comparison. Radiology. 2008 Mar; 246(3):863-70. [17] Gerster JC. Bursopathies des membres inférieurs. Revue Médicale Suisse N° 527 publiée le 10/03/2004. N° 2473. 2004. 242 C17 Theumann (OK).indd 242 3/06/11 11:55:15 Anatomie normale des nerfs du pied. Les sièges des conflits X. Demondion Le nerf tibial Les différents nerfs du pied et de la cheville sont sujets à un certain nombre de processus pathologiques, notamment à des lésions traumatiques, dont certaines peuvent d’ailleurs être d’origine iatrogène. Ces différents nerfs peuvent également être comprimés sur leur trajet et plus particulièrement au sein de tunnels ostéofibreux ou de compartiments anatomiques étroits. Si le rôle princeps des tunnels ostéofibreux est de protéger ces nerfs ainsi que les vaisseaux qui les accompagnent, un certain nombre de processus pathologiques (tumoraux, inflammatoires ou traumatiques) ou encore de simples variations anatomiques peuvent léser les nerfs au niveau de ces zones de passage, le plus souvent par un phénomène compressif [1]. Il apparaît donc important de rappeler l’anatomie des différents nerfs assurant l’innervation motrice et sensitive du pied, en insistant sur leur trajet et leurs rapports, ainsi que sur les zones de compression potentielles. Les principales anomalies anatomiques pouvant être à l’origine de compressions nerveuses seront également rappelées. Celles-ci peuvent être de natures diverses : musculaires (hypertrophie musculaire, muscle surnuméraire), fibreuses (bandelette fibreuse, anomalie d’un fascia…), osseuses (os surnuméraire, déformation ou malformation osseuse, constructions osseuses) ou encore vasculaires (varicosités). Le nerf tibial naît du nerf sciatique, à la face postérieure de la cuisse. Au tiers distal de la jambe, région à partir de laquelle il nous intéresse, le nerf tibial est superficiel et chemine le long du bord médial du tendon calcanéen. Il répond alors latéralement au muscle long fléchisseur de l’hallux et antéro-médialement au muscle long fléchisseur des orteils. À ce niveau, il est recouvert par le fascia crural et il est accompagné médialement par l’artère tibiale postérieure et ses deux veines satellites. Le nerf tibial se dirige ensuite, en arrière de la malléole médiale, vers l’avant et le bas pour s’engager dans la région du tunnel tarsien, lieu électif de compression de ce nerf et de ses branches de division. Le tunnel tarsien est un espace ostéofibreux s’étendant depuis la face postéro-médiale de la cheville à la plante du pied. Il peut être subdivisé en deux parties : une partie supérieure (tibio-talaire) (fig. 1) et une partie inférieure (talocalcanéenne) (fig. 2) [2, 3]. La partie supérieure du tunnel tarsien est constituée en avant et médialement par la face postérieure de l’extrémité distale du tibia et par la partie postérieure de la face médiale du talus ; en arrière et latéralement, elle est fermée par le fascia crural. Nous envisagerons le trajet de chaque nerf depuis l’extrémité distale de la jambe jusqu’à leurs rameaux terminaux au pied. 243 D18 Demondion (OK).indd 243 1/06/11 14:14:33 Le pied Fig. 2 : Coupe anatomique frontale passant par le tunnel tarsien. Noter le rétinaculum des fléchisseurs (têtes de flèches blanches), le tendon du muscle tibial postérieur (TP), le tendon du muscle fléchisseur des orteils (LFO), le tendon du muscle long fléchisseur de l’hallux (LFH), le nerf plantaire latéral (NPL) ainsi que le nerf plantaire médial (NPM) et le muscle carré plantaire (CP). Fig. 1 : Coupe anatomique transversale passant au-dessus de l’articulation talo-crurale montrant les rapports normaux du nerf tibial (flèche courbe) avec le muscle long fléchisseur de l’hallux (LFH), les tendons des muscles tibial postérieur (TP) et long fléchisseur des orteils (LFO) au sein de la partie supérieure du tunnel tarsien. pédicule vasculo-nerveux tibial va cheminer superficiellement par rapport à ces tendons [2, 4]. La partie inférieure du tunnel tarsien est formée latéralement par la face médiale du talus, par la partie inféro-médiale de l’os naviculaire, par la face médiale du sustentaculum tali et par la partie excavée de la face médiale du calcaneus. En haut, ce tunnel est limité par le ligament collatéral médial, et en bas par le muscle carré plantaire. Superficiellement, il est fermé par le rétinaculum des fléchisseurs (fig. 3). Le nerf tibial se divise classiquement dans le tunnel tarsien en deux branches terminales : le nerf plantaire médial et le nerf plantaire latéral (certains auteurs considèrent une terminaison en trois branches terminales, la troisième branche étant alors constituée par le rameau calcanéen médial) [4]. Le tunnel tarsien est un tunnel ostéofibreux peu extensible répercutant par conséquent rapidement toute augmentation de pression en son sein. Cette particularité est due au fait qu’il existe de nombreuses cloisons fibreuses tendues entre la face profonde du rétinaculum des fléchisseurs et la face médiale du calcaneus [5]. Dans le tunnel tarsien ainsi délimité, vont passer d’avant en arrière pour sa partie supérieure ou de haut en bas pour sa partie inférieure : le tendon du muscle tibial postérieur, le tendon du muscle long fléchisseur des orteils, le corps musculaire et/ou le tendon du muscle long fléchisseur de l’hallux. Le 244 D18 Demondion (OK).indd 244 1/06/11 14:14:33 Anatomie normale des nerfs du pied. Les sièges des conflits les kystes mucoïdes, les tumeurs nerveuses ou autres masses des parties molles [8], les ténosynovites des tendons des muscles fléchisseurs, les muscles accessoires [9, 10] (muscle long fléchisseur accessoire des orteils, muscle péronéocalcanéen médial…), une hypertrophie du muscle long fléchisseur de l’hallux ou du muscle abducteur de l’hallux [5], une synostose talocalcanéenne ou encore une hypertrophie du sustentaculum tali [11, 12]… Fig. 3 : Dissection montrant le tunnel tarsien et son contenu, dont le nerf tibial (NT) après ouverture du rétinaculum des fléchisseurs. Le syndrome du tunnel tarsien correspond à une neuropathie par compression ou étirement du nerf tibial ou de ses branches de division au sein du tunnel tarsien. Les patients présentent cliniquement une hypoesthésie, des dysesthésies, des paresthésies ou des douleurs de type neurogène dans le territoire des nerfs concernés. Une compression isolée du nerf plantaire médial (jogger’s foot) peut survenir lors d’un valgus excessif de l’arrière-pied ou lors d’une pronation excessive, en particulier lors de la course ou du port de talons hauts [6]. Il peut également être comprimé au contact d’une ténosynovite ou d’un kyste mucoïde (fig. 4). Les patients présentent alors des douleurs plantaires des deux premiers orteils. Les signes moteurs sont exceptionnels. Fig. 4 : Coupe IRM transversale en pondération T2 et saturation du signal de la graisse mettant en évidence un kyste mucoïde (flèche) comprimant le nerf tibial (flèche courbe). L’origine de la souffrance nerveuse reste fréquemment indéterminée (30 %). Les autres étiologies sont multiples et sont représentées par : • les traumatismes et leurs séquelles avec, en particulier, les fractures de l’extrémité distale du tibia, des tubercules postérieurs du talus ou du calcanéus. • les entorses latérales de cheville en valgus. • les syndromes de masse avec, en particulier, les thrombophlébites et les varicosités [7], Le rameau calcanéen médial représente la principale branche collatérale du nerf tibial à la cheville. Son origine se situe en amont du tunnel tarsien ou parfois en son sein. Ce nerf longe initialement le bord médial du tendon calcanéen, puis se divise en une branche postérieure sensitive pour la partie postéro-médiale du talon et en une 245 D18 Demondion (OK).indd 245 1/06/11 14:14:34 Le pied ou plusieurs branches antérieures sensitives longeant la face médiale du calcanéus et se terminant dans le coussinet graisseux du tiers postérieur du pied qu’elle(s) innerve(nt). Des microtraumatismes répétés du coussinet adipeux calcanéen ou son atrophie graisseuse, en particulier après une perte de poids rapide ou chez le diabétique, peuvent entraîner une neuropathie calcanéenne médiale [6, 13]. Branches de division du nerf tibial Le nerf plantaire latéral, depuis son origine dans le tunnel tarsien, se dirige obliquement en avant et latéralement vers la base du cinquième métatarsien en suivant le bord médial de l’artère plantaire latérale. À la plante du pied, il passe entre les muscles court fléchisseur des orteils et carré plantaire pour finalement se diviser en une branche superficielle et une branche profonde (fig. 5, 6). La branche profonde assure l’innervation des articulations tarsiennes et tarso-métatarsiennes, l’innervation motrice du muscle adducteur de l’hallux ainsi que celle des muscles interosseux plantaires et dorsaux et lombricaux latéraux. La branche superficielle se divise en nerf digital plantaire propre latéral du petit orteil et en quatrième nerf digital plantaire commun donnant les nerfs digitaux plantaires propres médial du petit orteil et latéral du quatrième orteil [14]. Fig. 5 : Dissection de la plante du pied après résection de l’aponévrose plantaire et avoir récliné le muscle court fléchisseur des orteils (CFO) mettant en évidence les nerfs plantaires médial et latéral avec leur division en nerfs digitaux plantaires (têtes de flèche). Noter l’anastomose nerveuse entre le nerf plantaire médial et le nerf plantaire latéral (flèche courbe). Nous insisterons sur le rameau calcanéen inférieur, première branche collatérale du nerf plantaire latéral en raison de la possibilité de compression de ce dernier lors de son trajet, et alors à l’origine de talalgies chroniques. Il naît juste en arrière de la malléole médiale, longe la face médiale du calcanéus, passe entre le muscle abducteur de l’hallux et le chef médial du carré plantaire, puis oblique latéralement pour passer entre la face inférieure du calcanéus et le muscle court fléchisseur des orteils, à proximité de l’insertion de l’aponévrose plantaire (fig. 7). C’est à ce niveau qu’il peut être lésé. Il se termine dans le muscle abducteur du petit orteil qu’il innerve. Un signe indirect de cette neuropathie en IRM est l’amyotrophie graisseuse isolée du muscle abducteur du petit orteil. La compression de ce nerf concernerait 15 à 20 % des jeunes athlètes présentant une talalgie chronique, mais elle peut également s’observer chez des sujets non sportifs [6]. 246 D18 Demondion (OK).indd 246 1/06/11 14:14:34 Anatomie normale des nerfs du pied. Les sièges des conflits Les étiologies des compressions du nerf calcanéen inférieur (neuropathie de Baxter) sont : • une enthésopathie ou une fasciite plantaire dans 15 à 20 % des cas, • un enthésophyte calcanéen qui, selon Baxter [15], pourrait entraîner une compression nerveuse, • un syndrome de masse (thrombophlébite, varicosités accompagnant le nerf, tumeur des parties molles, muscle accessoire, bursite). Le nerf plantaire médial, deuxième branche terminale du nerf tibial, se dirige pour sa part en avant pour suivre le bord latéral de l’artère plantaire médiale. À la plante du pied, il répond médialement au muscle abducteur de l’hallux, et latéralement au muscle court fléchisseur des orteils qui le recouvre partiellement. Il est en rapport en haut avec le tendon du muscle long fléchisseur des orteils et le muscle carré plantaire (fig. 5, 6). Le nerf plantaire médial se divise en une branche médiale et une branche latérale. Fig. 6 : Coupe anatomique frontale passant par les os cunéiformes mettant en évidence les rapports des nerfs plantaire médial (NPM) et latéral (NPL) ; CP : muscle carré plantaire ; LFO : tendon du muscle long fléchisseur des orteils ; LFH : tendon du muscle long fléchisseur de l’hallux ; CFO : muscle court fléchisseur des orteils ; CM  : os cunéiforme médial ; CI : os cunéiforme intermédiaire , CL : os cunéiforme latéral ; CU  : os cuboïde ; M4 : quatrième métatarsien ; M5 : cinquième matétarsien. La branche médiale donne le nerf du court fléchisseur de l’hallux et le nerf digital plantaire propre médial de l’hallux. La branche latérale donne les nerfs digitaux plantaires communs destinés aux bords adjacents du premier au quatrième orteil. Les nerfs digitaux plantaires communs traversent le canal ostéofibreux intercapitométatarsien selon un trajet oblique de 45 à 90° en passant en haut, sous le ligament métatarsien transverse profond tendu entre les têtes métatarsiennes, et en bas et plus en avant, au-dessus du ligament métatarsien transverse superficiel (fig. 8) [16]. La bifurcation de ces nerfs digitaux plantaires communs en nerfs digitaux plantaires propres se fait au sein de ce canal ostéofibreux, classiquement 10 à 15 mm en avant du ligament métatarsien transverse profond. Ainsi, le passage du nerf plantaire digital commun du compartiment plantaire vers les faces latérales des orteils constitue Fig. 7 : Coupe anatomique sagittale de la cheville mettant en évidence le passage du rameau calcanéen inférieur (flèche) entre la face inférieure du calcanéus (C) et le muscle court fléchisseur des orteils (CFO). 247 D18 Demondion (OK).indd 247 1/06/11 14:14:35 Le pied Le nerf fibulaire profond une zone à risque où le nerf peut être piégé entre les deux ligaments métatarsiens transverses et plus particulièrement, contre le bord antéro-inférieur du ligament métatarsien transverse profond. Ce phénomène est accentué par l’hyperextension des orteils, associée au port de chaussures à talons hauts. En outre, le nerf digital commun du troisième espace est plus fixe que ses voisins, car il est issu de l’anastomose entre les nerfs plantaires médial et latéral [17], ce qui le rend plus vulnérable aux microtraumatismes répétés. Le nerf fibulaire profond est la première branche de division du nerf fibulaire commun. À la cheville, il passe sous le rétinaculum des muscles extenseurs entre les tendons des muscles long extenseur des orteils et long extenseur de l’hallux (fig. 9-10). Il est accompagné par l’artère tibiale antérieure qui se trouve sur son flanc médial. Il se divise classiquement 1,3 cm au-dessus de l’articulation de la cheville, en une branche médiale Fig. 8 : Coupe anatomique frontale passant par les articulations métatarso-phalangiennes mettant en évidence les canaux interdigitaux plantaires situés au-dessous du ligament métatarsien transverse profond (flèches courbes). Ces canaux contiennent les nerfs digitaux plantaires (ND) et les artères digitales plantaires (AD). PP : plaque plantaire ; TF : tendons fléchisseurs. La compression répétée du nerf plantaire digital commun contre le bord antérieur du ligament métatarsien transverse profond lors de la dorsiflexion des orteils, conduit à une fibrose intra et périneurale portant le nom de névrome de Morton. Les névromes de Morton sont essentiellement observés au niveau du troisième espace (75 %) et du deuxième espace intercapitométatarsien [16]. Fig. 9 : Dissection de la face dorsale du pied mettant en évidence le nerf fibulaire profond (NFP), entre les tendons réclinés du muscle long extenseur des orteils (LEO) et long extenseur de l’hallux (LEH). Noter que le muscle court extenseur de l’hallux (CEH) surcroise le nerf fibulaire pronfond. RIE : rétinaculum inférieur des extenseurs. 248 D18 Demondion (OK).indd 248 1/06/11 14:14:35 Anatomie normale des nerfs du pied. Les sièges des conflits Le deuxième site de compression potentiel de ce nerf est localisé à la face dorsale du pied dans un étroit tunnel situé entre le tendon du muscle court extenseur de l’hallux et le fascia interosseux dorsal, en regard des premier et deuxième espaces intermétatarsiens.
8,020
43926f354be8aa871cb37445551fc156_2
French-Science-Pile
Open Science
Various open science
1,975
Une étude de quelques quadrangles généralisés
None
French
Spoken
2,537
4,731
Autour d'une droite donn~e il y a 40.9/45-~ 8 quilliers. Un quillier Q et une droite u de Q 4taut donn6es, il y a 7 autres quilliers dont l'intersection uvec Q contient u, 4 dont l'intersection surmonte u et done 3 dont l'intersection uvec Q est pr6eis6ment u. Cetu donne 9-3-----27 quilliers qui coupent Q le long d'une droite urbitruire. Si l'intersection de deux quilliers diff~rents eat plus grand, elle eat u n fuisceuu r~gl~. Le nombre de quilliers c o , p a n t Q le long d'un faisceuu r~gl4 ~gule celui des droites du plan affin avec trois points sur une droite; il est 12. Vu que 40----27-~-12-~ 1, il upparuit que deux quilliers di~f6rents doivent se couper ou le long d ' u n e droite ou d ' u n faisceau r~gl6. D e u x quitliers se coupant le long d ' u n fuisceuu r6g14 sont incidents £ lu couche dont ce fuisceuu fair partie. I n ~ e r s e m e n t deux quilliers sur la m~me couche se coupent le long d ' u n faiaceuu r~gl6. Donc, pour que deux quilliers diff~renta, consid~r6s comme des droites, paasent par la m~me couche, consid~r4e comme un point, il faut et il suffit qu'ils se coupent le long d ' u n fuisceau r~gl6. Une couche C e t un quillier Q, non-incidents, 6taut donuts, on d4montre l'existence d ' u n quillier sur C, coupunt Q le long d'un ~aisceau r4gl6: Soit Q~ un quillier quelconque sur C. L'intersection de Q et Q~ consiste d'une droite ~ au moins. S'il y e n u plus, on est 1~; ainon, on choisit sur C u n quillier Q. qui ne contient pus u pour t r o a v e r duns l'intersection de Q et Q~ une uutre droite v. Cos deux droites sont conten~es duns un quillier Q3 de C, qui coupe Q le long d ' u n fuisceau r4g16, et on volt ais4ment que c'eat le seul. 130 ttA:~S~ICV,UDEBTtLtL: Une dtude de quelques quadrangles gdndralisds Cela d4montre que lea quilliers et couches produisent une g4om4trie B2(4, 4). I1 reste £ savoir si, avec los quilliers £ titrc de droitea, il y a des surfaces r~gl4es. Consid~rons los 8 quilliers autour d'une droite donn~e. On sait clue chacun de cos quilliers est coup~ par trois antres le long d'une droite et par quatres autres le long d'un faisceau r~gl~, d'ofi il suit que les 8 quilliers autour de la droite u s'arrangent de la fa~on d'une surface r~gl~ d'une Geo B~(4, 4). Par cette relation los droites de T e Geo B~(3,5) repr~sentent les surfaces r~gl4es de C_~oB~(4, 4). Deux droites gauchos ul, us de TeGeoB2(3, 5) d~terminent dcux quilliera Q1, Q2 et une couche C off elles sont contenues; tes surfaces r~gl~es de T e Geo B2(4, 4) associ4es ~ ul, us se conpent le long de denx drcites aascei4es £ Q1, Q2 et qui se coupent an point associ~ ~ C. si deux surfaces r~gl@s TI, T2 d'nne Geo B~(4~ 4) n e s e coupen~ pas le long de deux droites coupantes, il n'est pan moins vrai que route droite de T~ rencontre T~; donc les deux faisceaux de T2 rencontrent T~ dans le m~me quadruple non-alignS. ~otons que ee quadruple ne dolt pas ~tre a3ign~ £ deux points; c'est plut6t nn quadruple <~impair )~. I1 y en a 12, comme le nombre de droites de Geo B.~3, 5) coupant une droite donn4e. En partant d'un quadruple impair de points de T~ et prenant dans chacun de sos points les deux droites non-contenues dans T~, on treuve une surface r4gl4e qui coupe T~ clans le quadruple prescrit. Les douze quadruples impairs s'arrangent dana trois sons-ensembles de quatre tel que les quadruples diff~rents du m~me sons-ensemble sont disjoints tandis que ceux de sous-ensembles diff4rents ont un point commun; les uns produisent des surfaces r~gl4es qui se coupent dans quatre points, lea autres des surfaces rSgl~es qui se coupent le long de deux droitea, ce qui en C,eo B~(3, 5) correspond £ la division des droites rencontr~nt une droite donn~e dans trois sons-ensembles de quatre droites, off deux du m~me sons-ensemble se coupent, tandis que deux de sous-ensembles dfff~rents ne se coupent pas. Cola montre qu'en partant de cette Geo B~(4, 4), on pent reconstruire la Geo B~(3, 5) dont elIe eat sortie en interpr6tant les surfaces r6glSes de la C,eo B~(4, 4) comme des droites et la relation entre deux surfaces r6gl4ea diff4rentes de se couper dans quatre points comme la relation de droites de Geo B~(3, 5) de se couper l'une l'autre. I1 suit de cette connexion entre los C,eo Ba(3, 5) et Geo B~(4, 4) que learn groupes d'automorphismes sont isomorphes. 22. - Une autre connexion remarquable entre ces deux g4omdtries ae pr~aente comme il suit: On part d'un T E Geo B2(3, 5). On en 6to une droite, appel~e 0% tons los points aur c~ et toutes los droites qui coupent c~. Restent 32 droitea et 24 points. On ajoute un nouveau point ~ chaque paire de droites qui forment un faisceau rSgl4 uvec oo. Cola fair 24 + 16 points. Deux parmi los nouveaux points aont consid4r~s alights HAgS I~l~:gLrD~r~AL: Une dtude de quelques ~uadrangges gdndralisds 131 si leurs droites d6finissantes ne se coupent pus. Cela donne 8 nouvelles droites, en somme 32 q - 8 = 40. A u t r e m e n t dit, chaque quillier Q con t e n a n t oo produit une droite nouvelle~ qui porte les quatre points n o u v e a u x des faisceaux r6gl6s contenant oo et contenues duns Q. P a r eette construction on obtient nn T' e Geo B~(4, 4). I1 est u n pen p6nibte de v6rifier t'existence des surfaces r6gl6es. L a marche inverse est de p a r t i r de T' e Geo B~(4, 4). On 6te une droite oo', tons ses points et routes les droites qui ta coupent. Restent 27 droites et 36 points. On ajoute u n nouveau point ~ ehaque triple de droites f o r m a n t n n faisceau r6g16 avec oo'. Cela fair 36 q- 9 = 45 points. Le r6sultat est une Geo Ba(5, 3). E n ex6cutant la construction dnale sur le dual de T' on obtient un T e G e o B,(3, 5). Alg6briquement cela se fair c o m m e il suit: On p a r t de l'espace projectif/~ 3 dimensions sur F, a v e c l a forme symplectique d6finie par On 6re le point c o = r0 0 1 01 et tons les points z align6s ~ 0% c'est-~-dire tels que B(oo, z ) = 0, a u t r e m e n t dit, les points dont la dernigre eoordonn6e s'6vanouit. On est avis6 de passer £ des coordonn6es inhomoggnes x , = ~ / ~ ( i = 1 , 2, 3). On ajoute une nouvelle droite £ ehaqne triple de points f o r m a n t un faisceau avec 0% c'est-~dire situ6s sur nne droite projective (non symplectique) passant p a r co. Cela v e u t dire que denx points x, y sont align6s si on x~ -= y~ et x~ -~ Y2 ou x~ y~ ~ x~ y~ -t- x3 - - Y3 = O. Ce modgle alg6brique a 6t4 d6j~ signal4 au no. 9. Cette construction se g6n6ralise comme nous exposerons au no. 24. Des g~om~tries symplectiques. 23. - E v i d e m m e n t la g6om4trie symplectique ~ trois dimensions sur P, avec ses points et droites est u n T ~ G e o B~(q-i-1, q-}-1). D e u x droites projectives nonsympleetiques, conjug6es l'une ~ l'autre par r a p p o r t ~ la forme symplectique, out la propri6t6 que t o u t point de l'une est align6 ~ t o u t point de l'autre. P a r dualit6 cette figure de droites p o r t e n t des points align6s passe dens deux faisceaux de droites off cheque droite de Fun coupe cheque droite de l'autre. Done la g6om6trie duale ~ T est distingu4e par des surfaces r6gl@s. Au contraire, en g6n4ral, T m6me ne poss6de pus de surfaces r6gl6es, m~me incompletes, ~ deux lois trois droites: P o u r r6futer l'hypoth6se contraire supposons les points p~j (i = 1, 2, 3, j = 1, 2, 3) align6s pour i fixe et j variable, de m~me que pour j fixe et i variable. I1 est permis I ~ N S FR:EU:D]~N~_~r~: Une dtude de quelques quadrangles ggndralisgs 132 d'6erire p ~ , p ~ , P~3 respeetivement duns la fcrme a, b, a + b; P2~, P2~, P~ duns la forme v, d, e ~- d; p ~ , p ~ , p ~ duns lu forme a + e, ~b +rid, y(a-~ b) + ~(e + d), d'ofl il suit i m m 4 d i u t e m e n t que a = fl et y = 8. Lu Iorrne symplectique ~tunt indiqu~e par (..., ...) on volt que s'~v~nouissen~ (a, b), (e, d), (a ~- b, e + d) (a,o), (b,d), (a÷e, b+d), d'ofl il suit (b, e) = (e, b), ce qui n'est permis qu'en caract6ristique 2. D ' u u t r e part, en curact6ristique 2, on d6montre que T e s t duale [6, 10]. isomorphe ~ sa Des g~om~tries B2(q, q ~-2). 24. - Au no. 22 on u m~tamorphos~ une Gee B2(4, 4) duns une Gee B~(3, 5). Lu m~mc m~tumorphose s'upplique plus g~n~ralement ~ lu g6om~trie symplectique 3 dimensions stir F, (Gee B2(q + t , q + 1) d e n t tu duule se distingue p a r des surfaces r4gl~es) pour arriver ~ nne Gee B2(q, q ÷ 2). Alg~briquement lu derni~re est d~finie duns un espuce uffm ~ 3 dimensions sur Fq off l'ulignement de x, y s'exprime par ou xl=yl e~ x 2 = y 2 , ou xl y~ - - x2 Yl ÷ x~ - - Y8 = 0. On p e a t se d e m a n d e r ee qui se passe duns cette m~tumorphose uvee los surfaces r~gl~es duns los cas off elles existent (ear~ct~ristique 2). D e u x droites ~ nouvelles )) sent contenues duns a n plan projectif co, les droites duns ~o f e r m e n t une surface r~gl4e complete, d e n t l'un faiseeau eonsiste des droites (no,relies) qui passent par oo et l'~utre des droites (vieillcs) qui passent par le p61e de co (disparu d e n t le m~tumorphose), en somme une surface r~gl~e dent l'un fuisceau est nouveau et l'autre consiste de droites vieiltes. Si une surface r~gt4e complete nouvelle ne eontient pas de droites nouvetles, les points (~omis )> de l'un ~aisce~u doivent 4tre align4s entre eux, de m~me que ceux de t'autre ~aisceau, et la surface r4gl~e dolt ~tre p a t t i e d'une surface r~gt~e vieille qui contient oo. Cos deux cas ~puisent los surfaces r~gl~es compl~tes nouvelles. E n offer, le seul cas qtt'il reste ~ eonsid~rer, s e t , i t celui d ' u n faisceau ne eontena, nt qu'une seule droite nouvelle: Sur trois droites ~1, us, ua du premier faisceau on distingue los points omis al, a~, aa du premier ~uiseean; snpposons a~, aa align~,s uux points b~, b~ de u~ et al align~ ~ux points e~, e~ de u~, us. Puis b~, e~ se t r o u v e n t sur une droite nouvelle, de m~me que b~, ca, ce qui donnerait deux droites nouve]les du second fuisceuu uu lieu d ' u n e seule. HANS FREUDENTHAL: Une ~tude de quelques quadrangles gdndralisds 133 De ce qui precgde on conclut 1~ propriet6 suivante des Geo B~(q, q + 2) (q = puissa,nce de 2) construits en p a r t a n t de geometries symplectiques £ trois dimensions sur Fq: I1 y a u n e et une seule surface reglee complete eontenant une paire donnee de droites coupantes, £ savoir, si co se t r o u v e sur une de ces droites, une surface r~glee avee u n faiseeau de droites nouvelles~ et si co est en dehors des deux droites, une surface regl6e naissant par r~duction d'une vieille surface reglee. Notons que les surfaces r6glees des g6om6tries duales, qui existent pour cheque Fq, se eonservent duns la. m~tamorphose de Geo B~(q -~ 1, q -~ 1) en Geo B~(q, q ~-2). Les surfuces r~gl~es dont l'un f~isceau consiste de droites nouvelles, subsistent d~ns les caraet~ristiques diff4rentes de 2, off ii n ' y a pus d'autres; donc les groupes d'~utomorphismes de ces g4om4tries ne p e u v e n t pus 8tre transitifs sur r e n s e m b l e de leurs droites. Cette question de tr~nsitivit4 reste ouverte an cas de caract4ristique 2. l%este aussi ouverte la question de l~ relation de ees GeoB~(q, q-~ 2) ~vec celles d~finies au m o y e n d'ovoides (voir p a r ex. [8]). Des g/iom~tries de quadriques hermitiennes. 25. - Nous Inentionnons bri~vement deux autres classes de Geo B~. Ce song des g6om6gries sur Fq, qui a d m e t u n a u t o m o r p h i s m e involutif a. Une a-potarit6 (issue d~une forme a-hermitienne non-d6generee) de l'espace projectif b~ 3 ou 4 dimensions sur Fe, determine la g6om6trie des points et droites d'une quadrique hermitienne, qvd est une Geo Bp(q 2 + t , q + 1), respectivement Geo B~(q~ + 1, q~ + 1). (Quelques dates duns [8] song erron6es.) E n general ces g6om~tries ne possgdent pus de surfaces reglees completes. BIBLIOGRAPHIE [1] E. CARMAN,Quelques remarques sur les 28 bitangentes d'une quartique plane et les 27 droites d'une surface cubique, Bull Sei. Math., (2), 70 (1941) = Oeuvres, 2, II, pp. 1353-6. [2] H. S. 1VIE.COXETER, The polytope 2~t, whose twenty-seven vertices correspond to the lines on the general cubic surface, American Journal of Math., 62 (1940), pp. 457-486. [3] L. E. DICKSO~, Linear Groups, Leipzig, 1901. [4] H. F~EVDENTHAL,Beziehungen der E~ und E s zur Oktavenebene, V I I I , Proceedings Kon. Ned. Akad. Amsterdam, A 62 (1959), pp. 44%465; partieuti~rement 451, note. [5] H. FREUDENTHAL - H. DE VRIES, Linear Lie Groups, New York, 1969; particuli~rement chap. 70-71. [6] H. FREUDEN~HAL, Une interprdtation gdomdtrique des automorphismes extdrieurs du groupe symdtrique $6, Rendiconti Seminario mat. e fis., Milano, 42 (1972), 47-56. [7] A. HENDERSON, The twenty.seven lines upon the cubic suxface, Cambridge Tracts no. 13, 1911. [8] D. G. HIG~AN, Partial geometries, generalized quadrangles and strongly regular graphs, Atti del Convegno di geometria combinatoria e sue applicazioni, Perugia, 1971, pp. 263-293. [9] B. SEGRE, The non-singular cubic surfaces, Oxford, 1942. [10] J. TITS, Ovo~des et groupes de Suzuki, Archly der Math., 13 (1962), pp. 187-198.
4,260
aceb9b92c0873f4a45351cbc687f8424_1
French-Science-Pile
Open Science
Various open science
2,022
De la sismopoétique de Nina Bouraoui : La « pensée du tremblement » face aux fractures identitaires dans Le jour du séisme (1999)
None
French
Spoken
7,290
12,489
s De la sismopoétique de Nina Bouraoui : La « pensée du tremblement » face aux fractures identitaires dans Le jour du séisme (1999) Alexandra Gueydan-Turek, Swarthmore College ✉ RELIEF – Revue électronique de littérature française Vol. 16, no 1 : « Littératures francophones & écologie : regards croisés », dir. Aude Jeannerod, Pierre Schoentjes et Olivier Sécardin, juillet 2022 ISSN 1873-5045, publié par Radboud University Press Site internet : www.revue-relief.org Cet article est publié en libre accès sous la licence CC-BY 4.0 Pour citer cet article Alexandra Gueydan-Turek, « De la sismopoétique de Nina Bouraoui : La “pensée du tremblement” face aux fractures identitaires dans Le jour du séisme (1999) », RELIEF – Revue électronique de littérature française, vol. 16, n0 1, 2022, p. 194-209. doi.org/10.51777/relief12381 De la sismopoétique de Nina Bouraoui : La « pensée du tremblement » face aux fractures identitaires dans Le jour du séisme (1999) ALEXANDRA GUEYDAN-TUREK, Swarthmore College Résumé Au prisme de la « pensée du tremblement » d’Édouard Glissant, laquelle promeut une vision productive du chaos reposant sur un modèle relationnel, cet article se propose d’examiner l’esthétique du tremblement telle qu’elle se déploie dans Le jour du séisme de Nina Bouraoui. En s’appuyant sur l’évocation du séisme d’El Asnam de 1980, l’autrice franco-algérienne convoque d’autres lieux et temporalités tout aussi traumatiques. À la suite du cataclysme, l’identité de la narratrice, sa mémoire et son enracinement dans la terre natale apparaissent illusoires. Les ondes de choc se propagent au récit : l’écriture sismique fait alors table rase de la fixité et de l’homogénéité pour privilégier des agencements textuels instables et un mode de connaissance relationnel aux apparences désordonnées et incontrôlables. Nous examinerons en quoi la précarité ontologique qui découle de la catastrophe naturelle engendre, pour la narratrice, de nouvelles modalités d’habiter le monde et de se concevoir en tant que sujet, tout en offrant une vision éthique de l’écriture. La ‘sismopoétique’ bouraouienne ainsi définie se veut à la fois ekphrasis et stratégie conceptuelle pour repenser la fragilité de l’existence du sujet postcolonial et sa relation précaire à la nature, ainsi que pour échapper aux emmurements identitaires, qu’ils soient fondés sur des concepts nationaux, genrés, ou religieux. Ma terre tremble le 10 octobre 1980. Sa démission est de soixante secondes. Son onde longe en cercles croissants et détruit cent kilomètres de rayons, une distance de feu et de tranchées. L’épicentre des ruptures loge sous ma ville, Alger. Sa force annule le silence et les lois de la gravité. Ma terre se transforme. Elle est en éclats. Elle s’ouvre et se referme sur les corps. [...] Sa violence achève les beaux jours. C’est un drame national. Ma terre devient fragile et mouvementée. J’épouse ses variations 1. C’est sur ces mots que débute Le jour du séisme de l’autrice franco-algérienne phare Nina Bouraoui. Paru en 1999, ce court récit textualise en l’espace d’une centaine de pages la violence du tremblement de terre survenu à El Asnam (Wilaya de Chlef) le 10 octobre 1980. D’une magnitude de 7,3 sur l’échelle de Richter, ce séisme fut le plus destructeur en Algérie depuis la fin de la colonisation. Loin d’offrir à proprement parler une reconstitution littéraire de l’événement, le texte met en abyme l’expérience intime de l’autrice alors enfant, expérience au jour de laquelle le séisme devient objet de méditation. Le séisme qui « défait l’enfance » (p. 33) va se propager, et faire jaillir d’autres souvenirs de jeunesse déstabilisants qui vont prolonger, tels de multiples répliques sismiques, la secousse inaugurale. Œuvre considérée comme mineure, mais charnière au sein de la production romanesque bouraouienne 2, Le jour du séisme a rarement fait l’objet d’analyses. Comme l’a établi 1. 2. Nina Bouraoui, Le jour du séisme, Alger, Barzakh, 2006 [1999], p. 9. Toutes les citations dans cet article réfèreront à cette édition. Aujourd’hui, le corpus inclut les œuvres suivantes : La Voyeuse interdite (1991) [prix du Livre Inter], Poing mort (1992), Le Bal des murènes (1996), L’Age blessé (1998), Le jour du séisme (1999), Garçon manqué (2000) 194 RELIEF, vol. 16, n° 1 Yahia Ouahmed, de par son entreprise hautement référentielle, ce récit annonce la transition du registre fictionnel des romans de jeunesse à une écriture de soi 3. Et c’est au prisme des questions qui dominent le cycle autofictionnel qui lui succède – à savoir l’identité fracturée d’une part, et d’autre part, le genre et la sexualité – que les critiques ont abordé jusqu’à présent ce récit. Le jour du séisme s’est ainsi vu analyser par Beatrice Ivey et Laurence Enjolras comme une « métaphore de l’ébranlement que quiconque subit sans (s’)y être préparé la mutation de son être profond 4 », un miroir du déchirement identitaire entre les deux rives de la Méditerranée, et d’une sexualité non normée 5. Toute en reconnaissant la valeur de tels propos, cette étude part du principe que le séisme ne peut être réduit au rôle de métaphore et de prétexte d’écriture ; à l’inverse, je souligne la portée plus signifiante du séisme comme objet de méditations ontologique et poétique, permettant de repenser la relation précaire de la narratrice – et à travers elle du sujet postcolonial – à la nature, et à la pratique scripturale elle-même. Dans cet article, nous soutenons que Nina Bouraoui offre une vision importante et profondément renouvelée du temps de crise qu’incarne le séisme. S’il est évident que Bouraoui n’entreprend pas à proprement parler un questionnement environnemental ou sociétal sur le ‘coût’ du désastre, elle n’en entame pas moins dans cette oeuvre une réflexion sur le lien entre la nature et l’évolution de son être. La nature du tremblement de terre, rendue sensible par une écriture poétique mimétique du séisme, ce que nous nommons la ‘sismopoétique’, permet de formuler de nouveaux modes humains et non-humains d’être. Le récit met en avant la séparation aléatoire de ces catégories, interrogeant ainsi la frontière ténue entre le désastre écologique et le rôle de la topographie déstabilisée qui en résulte dans l’émergence du sujet. Une telle relecture du Jour du séisme permet de mettre en avant le caractère polymorphe du séisme, qui le rend particulièrement délicat à appréhender. Certes dysphorique dans la destruction qu’il engendre, il se révèle aussi producteur d’un sens renouvelé. Une telle lecture s’inscrit dans la lignée des travaux d’Édouard Glissant qui a recours au concept de « pensée du tremblement » pour redonner sens au vécu du sujet archipélique face aux raz-demarée, explosions volcaniques et autres catastrophes naturelles qui dévastent les Caraïbes. S’interrogeant sur les façons d’appréhender la relation de l’être au monde lorsqu’il se trouve 3. 4. 5. [prix Renaudot], La Vie heureuse (2002), Poupée Bella (2004), Mes mauvaises pensées (2005), Avant les hommes (2007), Appelez-moi par mon prénom (2008), Nos baisers sont des adieux (2010), Sauvage (2011), Standard (2014), Beaux rivages (2016), Tous les hommes désirent naturellement savoir (2019) [prix Femina], Otages (2020) [prix Anaïs Nin], Satisfaction (2021). Karima Yahia Ouahmed, « De la double origine à l’être-deux dans l’écriture de Nina Bouraoui », Synergies Algérie, no 7, 2009, p. 224-225. Ouahmed attribue la cause de cette rupture identitaire au traumatisme causé par le départ inattendu d’Algérie, pendant l’adolescence de l’écrivaine. Laurence Enjolras, « L’habit ne vêt pas la nonne », Contemporary French and Francophone Studies, vol. 12, no 1, 2008, p. 20. Selon Beatrice Ivey, Le jour du séisme constituerait « une allégorie de l’aliénation » de la narratrice face à son identité algérienne, alors que pour Laurence Enjolras, le séisme métaphorise une identité post-queer. Voir Beatrice Ivey, « Remembering Disaster and Ecologies of Affect in Nina Bouraoui’s Le jour du séisme (1999) and Nathacha Appanah’s Le Dernier Frère (2007) », Modern & Contemporary France, vol. 29, no 2, 2021, p. 182 ; Laurence Enjolras, « L’habit ne vêt pas la nonne », art. cit., p. 18. 195 RELIEF, vol. 16, n° 1 en équilibre précaire, Glissant propose une vision productive du chaos. Au prisme de la pensée glissantienne, cet article se propose d’examiner l’esthétique du tremblement, telle qu’elle se déploie dans Le jour du séisme de Nina Bouraoui : loin de tout catastrophisme, le tremblement de terre entraîne chez Bouraoui, tout comme chez Glissant, un double renouvellement identitaire et scriptural. Identitaire, tout d’abord, car à la suite du cataclysme, les repères préalables de la narratrice, sa mémoire et son enracinement dans la terre natale apparaissent illusoires. En partant de l’évocation du tremblement de terre survenu à El Asnam, le récit va convoquer d’autres lieux et temporalités tout aussi traumatiques, et les souvenirs des uns et des autres vont se confondre. Et pourtant, cette instabilité se révèle profondément fertile pour l’évolution de son être ; c’est, en effet, à travers le séisme que la narratrice se voit obligée de tisser de nouveaux liens aux êtres et au monde qui l’entourent, selon un modèle relationnel opposé à la logique de l’identité unique 6. Scriptural, ensuite, car les ondes de choc du séisme se propagent à la facture du récit : les épisodes intimes et fictionnels se télescopent, l’oralité rentre en friction avec l´écriture, la trame narrative se fragmente au profit d’agencements momentanés. L’écriture qui surgit de la faille sismique fait table rase de la fixité et de l’homogénéité pour privilégier un mode de connaissance poétique aux apparences désordonnées et incontrôlables. Et la violence qui en résulte ne peut laisser le lecteur – devenu co-créateur – indemne. Nous examinerons ainsi en quoi la précarité ontologique qui ressort face à la catastrophe naturelle donne naissance à de nouvelles modalités de la subjectivité selon une vision transversale, et offre une nouvelle éthique d’écriture. La ‘sismopoétique’ bouraouienne ainsi définie se veut à la fois ekphrasis et stratégie conceptuelle pour repenser la fragilité de l’existence du sujet (postcolonial) et sa relation à la nature, et pour échapper aux emmurements identitaires, qu’ils soient fondés sur des concepts nationaux, genrés, ou religieux. Comment habiter un monde en ruines ? La destruction territoriale que met en scène Le jour du séisme souligne le caractère éphémère de l’environnement social contemporain. « Le séisme déplace les montagnes, brise les barrages, détourne les voies ferrées, supérieur au métal, et au ciment construit. Il assèche les oueds. Il noie les plaines » (p. 54). La catastrophe naturelle, revisitée à travers la métaphore guerrière, prend des allures de révolution, et mobilise une dialectique de violence et de contre-violence, proche du rapport entre sujet dominant et sujet dominé lors du processus de décolonisation : « C’est une guerre contre les hommes : une révolte, de la nature » (p. 60). Face à la secousse sismique, les ouvrages humains ayant modifié l’espace se voient anéantis, faisant certes de l’Algérie une zone sinistrée, mais aussi un territoire se libérant de toute subjugation. Le tremblement de terre va ainsi réorganiser non seulement les frontières topographiques arbitraires (barrages et voies ferrées), mais aussi les frontières entre les divers 6. Il s’agit là de deux modèles identitaires préalablement conceptualisés par Glissant à travers les notions d’identité-racine et d’identité-relation. Si la première se fonde sur les principes d’unicité, d’homogénéité, d’origine et de territoire, la seconde est façonnée par la pluralité, l’hétérogénéité, l’expérience multiple et l’errance. (voir Édouard Glissant, Poétique de la relation, Paris, Gallimard, 1990, p. 157-158). 196 RELIEF, vol. 16, n° 1 éléments naturels (eau/terre), comme le souligne le travail oxymorique du passage susmentionné [assécher/oueds ; noyer/plaines]. Ce faisant, le texte ne se contente pas de proclamer l’impossibilité de contrôler la nature. Il se joue aussi de la dialectique de l’anthropocène selon laquelle l’activité humaine informe les divers changements récents de la formation géologique de la planète Terre (on pense entre autres au dérèglement climatique). Certes, Bouraoui adhère à cette nouvelle vision de l’anthropocène et révoque la conception moderne qui séparait la Nature du sujet humaniste transcendant, simple arrière-plan de l’activité humaine, quand elle fait aussi état de la continuité entre l’Homme et son environnement. Pour reprendre les propos de Brian Massumi, son texte offre une certaine « épaisseur ambiante 7 » [an ambient thickness] à la catastrophe naturelle. Cependant, elle place au cœur de sa vision du monde la dépendance ontologique de l’humain face à la Nature, la place centrale de la terre et du territoire dans le processus de subjectivation de la narratrice, et de la dépendance de cette dernière vis-à-vis de son environnement. Ce réalignement de l’Homme et de la Nature est visible dès l’ouverture du récit qui convoque l’image de la catastrophe naturelle : « Ma terre se transforme. Elle est en éclats. Elle s’ouvre et se referme sur les corps. [...] Sa violence achève les beaux jours. C’est un drame national. [...] Je suis marquée, à jamais. Je viens d’un autre pays, un lieu modifié. J’obéis à un ravisseur. Je deviens étrangère » (p. 9). D’emblée, la narratrice fait appel à la dynamique du désastre telle que l’évoque Mark Anderson dans Disaster Writing : « Le désastre par définition est conçu comme une rupture ou une inversion de l’ordre normal des choses ; les désastres naturels dénotent ainsi le moment de disjonction où la nature renverse ce que nous concevons comme l’ordre naturel de la domination humaine 8. » Perçu comme le surgissement du chaos, le séisme traduit une rupture violente avec les normes – celles d’un paysage rationnel, régimenté par l’entreprise humaine, et auquel on aspirerait à revenir dans un ‘après’ de l’événement. Un tel bouleversement, poursuit Anderson, laisse des marques indélébiles non seulement sur la vie matérielle du sujet, les lieux qui l’entourent, mais aussi sur son être au monde : « La métaphore de la terre ferme, omniprésente dans la construction de l’identité et de la vision du monde du sujet, se voit brusquement détruite par le tremblement de terre 9 ». Autrement dit, la catastrophe entraîne une rupture ontologique chez la narratrice 10. Le ressenti de l’événement sismique va ainsi se traduire par le sentiment de perte, et l’évocation de ce qui fut avant le jour fatidique du tremblement de terre et qui n’est plus : « Je 7. Brian Massumi discute ici du rôle central des attentats du 11 septembre comme événement déclencheur d’une nouvelle conception de la relation entre le sujet et son environnement (« The Future Birth of the Affective Fact: The Political Ontology of Threat », dans Melissa Gregg et Gregory J. Seigworth (dir.), The Affect Theory Reader, Durham, Duke University Press, 2010, p. 62). 8. Ma traduction du texte original : « Disaster by definition is conceived as a rupture or inversion of the normal order of things; natural disaster denotes that moment of disjuncture when nature topples what we see as the natural order of human dominance » (Mark Anderson, Disaster Writing: The Cultural Politics of Catastrophe in Latin America, Charlottesville, University of Virginia Press, 2011, p. 1). 9. Ma traduction du texte original : « The metaphorical solidity of the earth, ubiquitous in the construction of identity and worldview, is uprooted abruptly by the earthquake » (Ibid., p. 1). 10. La critique s’accorde sur le fait que ce séisme qui entraîne le déracinement ontologique fait écho au départ inattendu de l’autrice et sa famille de l’Algérie pour la France, à l’âge de 14 ans, et de la dépossession de la terre d’origine à laquelle ce déménagement en France a abouti. 197 RELIEF, vol. 16, n° 1 perds ma place, essentielle. Je perds mes marques, des fréquentations. Je perds l’Orangeraie, la rotonde des quatre bancs, les glycines, les préaux ouverts sous les sept bâtiments unis en arc de cercle, la Résidence » (p. 23). L’ampleur de la perte se mesure ici à la nostalgie ressentie après la disparition, nostalgie qui se trouve exprimée à travers les figures de l’anaphore, de l’énumération et de l’accumulation. Pour autant, cette dépossession de l’origine ne mène pas nécessairement à la quête de nouvelles attaches par la narratrice. Au contraire, cette dépossession de l’origine, si douloureuse soit-elle, peut se lire comme un affranchissement des repères géographiques et appartenances culturelles : « Je perds l’origine. La terre disparaît avec mes secrets. J’entre en mouvements étrangers. Je commence la vie » (p. 2324). De plus, face à cette double perte – de repères géographiques et ontologiques –, le microcosme du récit fonctionne comme une archive des paysages disparus : « Je vais vers le souvenir [...] Je parcours une autre géographie, lisse et inchangée, les jardins de Blida, la forêt de Baïnem, les gorges de La Chiffa. Je trace. Je reconstruis. Je cherche mon enfance sous les pierres » (p. 24). La fonction mémorielle du récit permet ainsi de contrer le phénomène destructeur du séisme en prolongeant l’existence des espaces de l’enfance dans le présent de l’écriture. Face au déchirement de la terre et à la disparition des lieux qu’elle entraîne, la fin du récit proclame ainsi la mémoire comme « un lieu permanent » où rien ne tombe ni ne disparaît : « Ce lieu, unique, porte ma terre sans séisme » (p. 96). L’écriture se fait archéologie ; elle sauve ainsi des ruines et de l’oubli en mettant en mots un monde englouti et en l’incorporant à une géographie intime. Toutefois, si le geste scriptural permet a priori de préserver ces paysages de l’enfance du désastre écologique et du passage du temps, la présence de certains éléments vient remettre en question cette entreprise. Ainsi, la référence aux ruines romaines de Tipasa, à la suite du passage susmentionné (p. 25), témoigne du fait que le sauvetage du souvenir qu’opère la mémoire demeure quelque peu illusoire. En effet, le passage d’une mini-séquence à l’autre, d’un lieu à l’autre et d’une temporalité à l’autre, invite non seulement à construire un parallèle entre les lieux de l’enfance et les ruines, mais inscrit les premiers dans la finitude qu’évoquent les derniers, et annonce qu’ils seront bientôt appelés à les rejoindre. Cette référence au paysage de Tipasa permet aussi de distinguer la perception postcoloniale de la nature chez Bouraoui. Dans son étude de l’imaginaire géographique colonial en Algérie, Seth Graebner évoque le fait que la nostalgie pour les cultures latines disparues est constante dans les productions culturelles françaises de la première moitié du XXe siècle sur l’Algérie. Graebner démontre qu’à travers le motif littéraire des ruines de Tipasa et de Cherchell, c’est l’image d’une ‘Afrique latine’ qui est convoquée 11. Celles-ci font l’objet d’une instrumentalisation pour justifier la conquête de l’Algérie par la France « où les colons français seraient les héritiers directs de leurs ancêtres romains 12». Forte des vestiges de sa colonie romaine, de la stèle érigée en hommage à Camus ou encore de la station balnéaire réalisée 11. Seth Graebner, History’s Place : Nostalgia and the City in French Algerian Literature, Lexington, Lexington Books, 2007, p. 1-2. 12. Ma traduction du texte original : « where French colons inherited directly from Roman ancestors » (Ibid., p. 28). 198 RELIEF, vol. 16, n° 1 par l’architecte Ferdinand Pouillon, Tipasa est ensuite devenue un signifiant à part entière de l’identité pied-noir et continue à figurer aujourd’hui parmi les éléments essentiels de la postmémoire de cette communauté 13. Or, Le jour du séisme s’éloigne radicalement des topoï auxquels ce site donne souvent cours dans l’imaginaire géographique (post)colonial. Chez Bouraoui, en effet, les arènes, colonnades et temples demeurent vides de vie (et de sens) jusqu’à ce que le vent vienne animer le paysage : « Le vent vrille sous les pierres. Il repeuple et restitue. On crie. On échange. [...] Le vent ressuscite la foule » (p. 25). C’est le son du vent s’engouffrant dans les passages et le mouvement qu’il crée en soulevant les poussières au sol qui animent le paysage et qui conjurent, dans un second temps, l’apparition d’une foule. Le monument culturel avec ses connotations idéologiques s’efface ici au profit d’un site dans lequel règne la nature, déclencheuse et médiatrice de vie et d’échanges. Une telle osmose entre les ruines et le vent souligne la précarité des divisions et des hiérarchies epistémologiques établies sur lesquelles repose notre compréhension du monde postcolonial. Le texte de Bouraoui nous propose aussi un regard renouvelé sur notre relation avec le monde naturel en mettant en scène la double détérioration, à la fois écologique et subjective, qui résulte de la secousse sismique. Cette coïncidence, convoquée d’emblée par le possessif « Ma terre tremble » (p. 9, 11) sur lequel commence le récit, est évoquée tout au long de l’oeuvre dans l’alternance d’images qui suggèrent l’érosion des frontières entre le sujet et les paysages qui l’entourent : « Ma terre tremble. Elle est vivante et incarnée. Elle gémit » (p. 11). À la personnification de la terre qui prend corps répond le corps de la narratrice qui se voit marqué par la nature qui la change : « Ma vie tient par la mer, les montagnes et le désert. Je suis façonnée. J’appartiens à la nature » (p. 15) ; « Ma terre est atteinte.[...] Elle est, touchée. Je suis, traversée. Ma terre est mon corps. Je deviens incomplète » (p. 81). Les structures parallèles pour décrire la terre et la narratrice ainsi que la porosité des registres pour qualifier l’humain et le non-humain soulignent une redéfinition des contours traditionnels du sujet humain, dont le développement ontologique va s’inscrire dans un continuum avec la nature qui l’altère. La narratrice advient au sein des territoires naturels, en relation avec eux et à travers eux. Tout comme elle parcourt le paysage, la nature la traverse, et c’est l’instabilité de ces espaces naturels dans le contexte du séisme qui permet à la protagoniste de se transformer. De sorte que, pour revenir aux propos de Mark Anderson, si la catastrophe naturelle instaure une rupture ontologique chez la narratrice, celle-ci est loin de se réduire à une simple parenthèse ; il n’y a pas d’‘après’ auquel on puisse aspirer, aucun paysage stable, rationnel, et régimenté par l’entreprise humaine ne persiste. Consciente de cet état de fait, c’est au cœur de cette fracture, en rapport avec cette instabilité des éléments naturels, que la narratrice doit donc advenir et se constituer en tant que sujet. 13. Amy L. Hubbell, « (Re)turning to Ruins: Pied-Noir Visual Returns to Algeria », Modern & Contemporary France, vol. 19, no 2, 2011, p. 147-161. 199 RELIEF, vol. 16, n° 1 « Mon corps qui contient son corps » : l’écosystème du tremblement Si la narratrice du Jour du séisme semble se dissoudre dans son environnement, elle ne correspond pas pour autant à ce personnage que Stéphanie Posthumus nomme, en s’appuyant sur les travaux d’Alain Suberchicot, le « non-sujet environnemental », soit un personnage « sans substance » qui ferait preuve d’un « déficit identitaire » du fait d’un récit qui placerait au premier plan la nature, et ce au détriment de la profondeur de sa psyché et de sa relation aux autres14. En effet, si la narratrice et la terre sinistrée se dissolvent l’un dans l’autre, c’est en réalité pour « penser “transversalement” les interactions entre l’écosystème, le social et l’individu 15 ». Ce faisant, le processus de subjectivation à l’œuvre chez Bouraoui fait écho à l’écosophie environnementale de Félix Guattari selon laquelle le sujet se construit dans ses multiples interactions aux trois écologies qui l’entourent (sociales, mentales et environnementales) et qu’il contribue en retour à constituer 16. La vision de Guattari implique une transformation de notre regard sur le monde qui révoque l’opposition traditionnelle entre sujet et objet pour privilégier l’interdépendance. Cette nouvelle perception du Moi exige, en effet, la revalorisation des liens qui nous attachent à l’environnement et à notre société, soit la nécessité d’une nouvelle « écologie mentale » dans laquelle le processus de subjectivation se détache de la réalisation autocentrée du Moi pour s’inscrire dans un relationnalisme constitutif. Bien que le récit commence in medias res sur l’instant et le lieu du séisme comme épicentre, il relie ensuite rapidement la catastrophe naturelle à d’autres moments de l’enfance qui font écho au séisme initial, et figurent autant d’ondes sismiques qui se propagent à travers la terre. C’est ainsi que le récit des soixante secondes que dure la secousse sismique vient à réunir divers épisodes tout aussi traumatiques tels la circoncision d’un enfant, une scène de noyade, ou encore une tentative d’agression (p. 19-20, 35, 27-29). Ces scènes qui constituent des détours vers d’autres lieux et d’autres moments, se téléscopent. Ce faisant, elles ne cessent de remettre en question la possibilité même d’une géographie et d’une temporalité stables. En outre, ces épisodes interrogent la relation à l’autre et ses limites. Par exemple, la peur que déclenchent les premières secousses sismiques amène la narratrice à se remémorer la circoncision de son meilleur ami Arslan quelques années auparavant, cérémonie au cours de laquelle elle s’était sentie tout aussi démunie. Jusqu’alors complices, les enfants se voient séparés par ce rite qui marque le corps du jeune garçon comme étant celui d’un homme et qui est vécu comme « un acte d’exclusion » (p. 20). À travers le souvenir de la circoncision, la narratrice dénonce le rite initiatique qui sépare à jamais les corps sexués dans la religion musulmane, et qui assigne un genre stable au corps de l’enfant ; elle promeut en creux une identité genrée plus fluide que l’on retrouvera par la suite dans Garçon manqué (2000) et Mes mauvaises pensées (2005). Au final, on perçoit le rejet de l’identité genrée, 14. Stéphanie Posthumus, « Écocritique et ‘ecocriticism’. Repenser le personnage écologique », Figura, vol. 26, 2014, p. 26. 15. Ibid., p. 31. 16. Ibid., p. 24-25. 200 RELIEF, vol. 16, n° 1 sexuée et normée dans le renversement ultime de la scène : bien que ce soit Arslan qui subit l’opération, c’est la narratrice qui finira par saigner (du nez) pour Arslan pendant la cérémonie. Tout se passe comme si son corps prenait la place de celui de son ami. De la même manière, quand elle le sauve plus tard de la noyade, la focalisation interne adoptée par le récit tend à confondre le « je » de la narratrice avec Arslan : Arslan se noie sous la boue fraîche et épaisse, un torrent. La terre défigure. Elle prend son visage, ses cheveux, ses jambes nues. Arslan perd sa voix. Il devient invalide. Je reçois la première violence de la terre, sa puissance, ma défection. Je lutte. Je risque. Je plonge. J’étouffe. (p 35) La lutte évoquée à la fin du passage correspondrait-elle au sauvetage que la narratrice entreprend de son ami, ou bien la narratrice vient-elle ici se substituer à la voix d’Arslan frôlant la mort ? Le lecteur ne peut ni ne doit choisir. Après qu’Arslan a perdu sa voix, le « je » se fait le relais de l’expérience d’autrui tout en restant distinct. Ainsi, lorsque la narratrice revient sur cet épisode, elle dit : « Je porte sa mort, frôlée, entre mes mains. [...] mon corps qui contient son corps un jour menacé » (p. 56-57). Et, malgré le fait que l’épisode initial de la noyade mette en scène de pseudo-disparitions – celle du corps d’Arslan recouvert de boue et de la « défection » de la narratrice –, on entraperçoit ici l’affirmation d’une intimité des corps et d’une symbiose des subjectivités sans tomber dans l’utopie bienheureuse. Au final, si la narratrice se définit en relation avec ceux qui l’entourent et à travers eux, cette relation n’est pas sans conflit. On apprend ainsi qu’Arslan respectera la vision binaire genrée de l’espace public, délaissant Nina : « Arslan rejette mon corps qui contient son corps un jour menacé. Il se fuit par moi. [...] Il apprend à être un homme » (p. 57). Ainsi, en dépit de la vision dichotomique d’une société fracturée où le « je » s’inscrirait en porte-à-faux des autres personnages, un brouillage narratif s’opère au prisme de la mémoire et vient mêler les voix, les expériences et les corps jusqu’à parfois les confondre 17. Loin du dire narcissique, le récit autofictionnel de Bouraoui offre un espace de recréation du « je » à travers son rapport aux autres, et ce même quand ces autres ne sont présents qu’en creux. C’est une vision qui promeut la mobilité et l’incertitude aux antipodes d’une culture algérienne vue comme patriarcale et opprimante. La trame narrative dans Le jour du séisme se dérobe donc afin de laisser place à l’incertitude et au multiple. Cela fait justement trembler, vaciller et sans cesse renouvelle non seulement la fiction, mais aussi la vision du lecteur sur le modèle d’une terre qui part en éclats. À la suite de la lecture critique de Beatrice Ivey, on peut même s’accorder à dire que le réseau relationnel et temporel éclaté vient réfracter plus largement les maux postcoloniaux. 17. Cet effet se voit démultiplié lorsqu’on lit ce récit à l’aune du reste de l’œuvre bouraouienne. Ainsi, le roman autobiographique publié un an après Le jour du séisme fait état d’un épisode similaire où Nina sauve Paola plutôt qu’Arslan de la noyade, après s’être souvenue de la manière dont son père avait tenté en vain de sauver un jeune homme de la noyade (Garçon manqué, Paris, Stock, 2000, p. 36). Nina, témoin de l’incident, raconte alors : « Cet homme est mort. Je ne l’oublierai jamais. Chaque homme croisé portera son image, une image fantôme qui rompt l’enfance » (p. 14). D’une œuvre à l’autre, l’inversion des genres dans cet épisode souligne combien l’expérience sensible de la nature occupe une place primordiale et permet de relier les personnages les uns aux autres. 201 RELIEF, vol. 16, n° 1 La catastrophe naturelle traduirait dans le champs du naturel et de l’universel d’autres violences historiques et sociétales. C’est ainsi que, comme le démontre Ivey 18, le tremblement de terre de 1980 présage la guerre civile algérienne qui opposera, pendant les années 1990, les islamistes et le gouvernement dirigé par des militaires : « Le séisme est une guerre. [...] Dieu est une urgence. La rue est une rumeur. Ses voix, une population, forcent l’effroi. La rue est faite d’un seul cri, une terreur » (p. 46). Cette image évoque ainsi tout autant l’angoisse de la population qui se réfugie dans la rue lors de la secousse sismique, que la peur élicitée par les attaques arbitraires lancées contre la population civile par les groupes islamistes armés. En l’occurence, la parution de cette oeuvre en 1999 vient actualiser à l’esprit du lecteur initié la métaphore du terrorisme qui ravage l’Algérie pendant la décennie noire. Dans la même perspective, l’apparition du champ lexical de la guerre où les enfants sont appelés à devenir « maquisards » (p. 56) remet en mémoire dans le contexte algérien le legs traumatique du conflit colonial et, en particulier, de la guerre d’Algérie. Celle-ci continue à présider aux relations entre la France et son ancienne colonie et, dans le cas qui nous intéresse, à la construction identitaire de la narratrice franco-algérienne. Penser la fracture sismique en termes de relationnel, d’échanges aléatoires et inopinés nous rapproche des réflexions menées par Édouard Glissant. En réponse aux séismes, cyclones et raz-de-marée qui ravagent régulièrement les Caraïbes, Glissant conceptualise le nouveau paradigme éco-esthétique de la « pensée du tremblement ». Loin de se laisser aller au catastrophisme, Glissant note que quand la terre tremble et secoue, le sujet s’éveille et son être au monde se voit ébranlé, déplacé. En d’autres termes, la « crise » écologique devient fructueuse. Glissant définit ainsi le concept de « pensée du tremblement » dans La Cohée du Lamentin: une pensée du tremblement, qui ne s’élance pas d’une seule et impétueuse volée dans une seule et impérieuse direction, elle éclate sur tous les horizons, dans tous les sens, ce qui est l’argument topique du tremblement. Elle distrait et dérive les impositions des pensées de système. Le Monde tremble, se créolise, c’est-à-dire se multiplie, mêlant ses forêts et ses mers, ses déserts et ses banquises, tous menacés, changeant et échangeant ses coutumes et ses cultures 19. Épousant les soubresauts physiologiques et historiques du monde, la pensée du tremblement se donne comme une approche fluide qui s’oppose aux dogmatismes et autres systèmes de pensée rigides. Elle peut surgir de partout et s’inscrit dans l’incertitude et le transitoire. En d’autres termes, plus qu’une poétique concrète qui découle du chaos écologique du monde, le tremblement constitue « un mode de connaissance opératoire », ce que Hugues Azérad nomme « la force créatrice et destructrice qui révèle les structures invisibles et invite à les 18. Beatrice Ivey, « Remembering Disaster and Ecologies of Affect in Nina Bouraoui’s Le jour du séisme (1999) and Natacha Appanah’s Le dernier frère (2007) », Modern and Contemporary France, vol. 29, no 2, 2021, p. 188. Par ailleurs, dans Garçon manqué, Bouraoui revient sur l’omniprésence de la guerre d’Algérie dans son œuvre : « Parce que la guerre d’Algérie ne s’est jamais arrêtée. Elle s’est transformée. Elle s’est déplacée. Et elle continue. » (op. cit., p. 101). 19. Édouard Glissant, La Cohée du Lamentin, Paris, Gallimard, 2005, p. 75. 202 RELIEF, vol. 16, n° 1 ausculter 20 ». Et Glissant d’ajouter plus loin que la pensée sismique ouvre l’identité sur l’échange avec l’autre : « le tremblement est la qualité même de ce qui s’oppose à la brutale univoque raide pensée du moi hormis l’autre 21 ». Loin de réduire le séisme à un prétexte d’écriture, Glissant rend compte du pouvoir ambigu de l’image du séisme et du tremblement en tant que dynamique relationnelle et mode de connaissance du monde. Les affinités qu’entretient Bouraoui avec la pensée glissantienne deviennent dès lors apparentes. Mais si un tel cadre théorique souligne les enjeux ontologiques du roman de Bouraoui, il nous oblige aussi à nous interroger sur les enjeux poétiques du travail minutieux de stylisation dont le récit fait l’objet, ce chaos apparent de l’écriture qui épouse le bouleversement du monde. Ecrire le tremblement Cherchant à mettre à jour le paradoxe au coeur de la démarche glissantienne, Hugues Azérad souligne combien l’encre coulée chez Glissant vient à épouser les secousses de la terre, les mouvements de la nature : « À chaque moment l’artiste risque d’effacer le tremblement sous la fixité, mais que, lorsqu’il échappe à ce risque, la fixité formelle est d’autant plus belle que le tremblement par-dessous anime la vie d’une matière 22 ». Bien que l’écriture couchée sur la page soit a priori tributaire de l’ordre des mots, et relève ainsi d’un système qui fixe, le récit du séisme réussit à textualiser les tremblements du monde « dans une forme qui n’en occulte pas pour autant l’énergie chaotique 23 ». Cet élément stylistique semble aussi présent dans l’écriture bouraouienne. La structure narrative prend ainsi la forme d’un tremblement : l’ordre des blocs de textes poétiques qui composent le récit est sans logique apparente et délaisse la forme conventionnelle arborescente du récit pour privilégier la fracture et le morcellement 24. La répétition d’amorces en début de paragraphes, comme « Ma terre tremble » et « Ma terre revient » (p. 9, 11, 46, 98-99), mime sur la page la secousse sismique et revêt l’écriture d’une qualité incantatoire, voire obsessionnelle. Au-delà de la faill(it)e de la structure narrative, le style même retient des caractéristiques qui sont propres à la violence sismique : comme le conceptualise Marie-Denise Shelton dans son Éloge du séisme, l’écriture sismique se définit comme « un exercice scriptural qui est libéré des précautions du langage historique et normatif 25 ». Dans Le jour du séisme, ceci se 20. Hugues Azérad, « À rebours des systèmes : esthétiques du chaos-monde et de la chaosmose chez Édouard Glissant et Félix Guattari », Irish Journal of French Studies, vol. 17, 2017, p. 119. 21. Ibid., p. 76. 22. Édouard Glissant, Esthétiques du pire, cité dans Hugues Azérad, « À rebours des systèmes », art.cit., p. 120. 23. Ibid, 119. 24. En cela, l’écriture de Nina Bouraoui rejoint la pratique de l’écriture fragmentaire. Si les écritures fragmentaires adoptent différentes modalités et ont des finalités diverses – de l’impossibilité du récit qui tend vers le silence à la parole plurielle –, Pierre Garriques signale qu’elles s’accordent sur le refus de toute forme pure au profit d’une structure combinatoire. L’écriture du fragment se veut, sous la plume de Garrigues, le refus d’une pensée systématique, voire une exigence éthique (Pierre Garrigues, Poétiques du fragment, Paris, Klincksieck, coll. « esthétique », 1995, p. 9-22). 25. Dans son analyse de romans francophones traitant du séisme, Shelton établit que le traitement de ce motif donne lieu à un rejet des conventions et à un renouvellement esthétique qui s’étendent du domaine de la langue à celui du genre (Marie-Denise Shelton, Éloge du séisme, Paris, L’Harmattan, 2021, p. 23). 203 RELIEF, vol. 16, n° 1 traduit par une structure phrastique tremblante et saccadée qui met en avant une parole sporadique, anaphorique et entrecoupée de blancs. Ceux-ci sont exploités pour créer des effets de discontinuités, le texte étant d’une longueur inégale d’une page à l’autre, ce qui engendre une lecture aux rythmes variés. À cela s’ajoute la disposition typographique inhabituelle qui nous arrête dans notre lecture. Assurément, les enjeux d’une telle écriture dépassent amplement le domaine de « l’exercice scriptural » auquel le limite Shelton, pour faire dialoguer le champ esthétique avec les réalités écologiques et le processus de subjectivation de l’individu. On reconnaîtra ici l’importance du concept d’écopoétique qui nous permet de déceler de nouvelles modalités pour la narratrice (et l’autrice derrière le masque de cette dernière) de prendre conscience d’elle-même et d’être-au-monde aux antipodes du paradigme cartésien accordant la primauté au sujet pensant qui, par le biais de progrès techniques et scientifiques, maîtriserait la nature. Revenons sur l’un des nombreux passages où le rapport entre l’environnement et le sujet apparaît comme poreux : « Elle [ma terre] est, touchée. Je suis, traversée » (p. 81). La structure parallèle établit un rapport étroit entre le sujet et la nature, la narratrice et le séisme, alors que la construction agrammaticale du fait de l’utilisation inattendue de la virgule souligne combien ce rapport s’inscrit dans une potentialité. En effet, la présence de la virgule entraîne ici un dédoublement du sens en ce qu’elle convoque à la fois 1) le « Elle est/ je suis » qui postule l’existence incontestable du sujet et de la terre, sa naissance à la langue, 2) la structure attributive « Elle est touchée/ Je suis traversée » qui invoque une qualité marquée du sujet et 3) la voix passive « Elle est touchée (par)/ Je suis traversée (par) » qui met en relation le sujet subissant l’action avec son agent (un autre qui demeure ici diffus) et qui restitue la fiction ontologique comme foncièrement inscrite dans la relation au monde. De fait, l’énoncé affirme l’existence primordiale du sujet, le qualifie, tout en soulignant que ces qualités reposent aussi sur l’appréhension d’autrui, de ses croyances et de son monde, autrement dit de son ‘écosystème’. Il souligne le devenir de la terre faite chair, le devenir d’un écosystème-monde. L’être s’inscrit ainsi essentiellement dans le devenir, soit le passage d’un état à un autre, et ce au contact de l’autre qu’il soit homme ou nature : « Quitter l’Algérie est un acte violent. [...] C’est se détourner de soi. C’est se rendre à l’errance. Quitter c’est chercher, à jamais. [...]/ Quitter sa terre./ Quitter sa définition » (p. 90). De sorte que l’écriture poétique de ce contexte « dépass[e] la simple ambition descriptive 26 », rejoignant ainsi les enjeux de l’écopoétique, soit un travail sur la perception qui s’effectue à travers le prisme linguistique et esthétique, et ce afin d’amener le lecteur à « voir différemment » et à « reconnaître les normes et les valeurs qui façonnent son environnement » 27. L’écriture sismique ou la sismopoétique comme nous l’avons nommée, se voit parfois mise en scène de façon plus directe. On la retrouve ainsi explicitement mentionnée à la suite 26. Pierre Schoentjes, « Littérature et environnement : écrire la nature », dans Bruno Blanckeman et Barbara Havercroft (dir.), Narrations d’un nouveau siècle : romans et récits français (2001-2010), Colloque de Cerisy, Paris, Sorbonne Nouvelle, 2012, p. 128. Voir aussi pour une définition plus détaillée Ce qui a lieu. Essai d’écopoétique, Marseille, Wildproject, 2015. 27. Nathalie Blanc, Denis Chartier et Thomas Pughe, « Littérature et écologie : vers une écopoétique », Écologie et politique, vol. 31, no 2, 2008, p. 22. 204 RELIEF, vol. 16, n° 1 de l’épisode où Arslan frôle la noyade, lorsque la narratrice dédie une page entière à l’enterrement symbolique du garçon qui, s’il survit à l’événement, quittera néanmoins la narratrice par la suite quand il immigrera en France : « Je ne dis pas. Ma parole blanche couvre Arslan. La mort, frôlée, prend possession. [...]/ Je renverse la terre. Je deviens sa fille et son ennemie » (p. 36). À la forme contractée de la phrase répondent les multiples métaphores (celle de la parole comme terre qui ensevelit, celle de la narratrice-séisme, ou encore celle du séisme comme génitrice), ainsi que les relations oxymoriques de la narratrice avec le séisme considéré comme une figure à la fois bienveillante (maternelle) et hostile. Un premier constat s’impose : l’écriture qui doit témoigner de la survivance d’Arslan existe dans une certaine tensionalité. Le témoignage court en effet le risque de se transformer en une pulsion mortifère ; il peut enterrer Arslan et le faire disparaître sous les mots, et ce bien que ce premier mouvement scriptural soit contrebalancé dans un second temps par la vivacité de la « parole ». Tout l’enjeu du passage réside donc dans la tension entre le « dire », la parole qui fait revivre l’événement et l’« écrire », le récit qui tente de retransmettre et de fixer cette parole, et la fracture entre l’un et l’autre révèle l’incapacité à dire juste. Bouraoui n’en cherche pas moins à écrire au plus près du séisme, en adoptant une pratique écomimétique, soit un style qui opère une symbiose avec le (dés)ordre naturel dont il essaie de capturer l’essence, ce que Bouraoui nomme au sein de son texte « [l]a parole blanche ». L’autrice reviendra à plusieurs reprises dans Mes mauvaises pensées (2005) sur ce procédé dont la blancheur évoque certes « l’écriture blanche » de Roland Barthes, mais qui n’a pas grand chose en commun avec cette dernière telle que Barthes l’a définie 28. Dans l’un des nombreux commentaires métalittéraires de ce roman autofictionnel, Bouraoui compare la pratique scripturale à un processus organique. Elle explique ainsi : « je pense à mon cerveau, à ses matières molles, aux milliers de ramifications qui me font écrire, qui me font douter ; j’ai peur d’altérer ce mécanisme-là, la main libre, la main qui raconte. 29 ». Assurément, la métaphore organique offre la vision d’une écriture qui, à l’image des neurones, répond aux stimuli sensoriels pour les retransmettre sur la page, et ce au profit du lecteur. L’autrice dans « [s]on rôle buvard » (p. 29) enregistre alors ce qui l’entoure, ce qu’elle voit, ce qu’elle ressent, « c’est [s]a façon d’habiter l’existence » (p. 79), quitte à ce que cette écriture mène à l’incohérence et au chaos ; mais cette ouverture aux phénomènes physiques, à leur jaillissement au sein de la matière textuelle, n’est pas sans courir en permanence le risque de tomber dans l’excès, et mener à l’absence complète de sens, voire à la perte de toute parole. Bouraoui continue ainsi son commentaire métatextuel : « J’ai peur de tout perdre, j’ai peur de placer 28. Le lyrisme de l’écriture bouraouienne situe la ‘parole blanche’ en opposition à la notion d’ ‘écriture blanche’, telle que l’a définie Roland Barthes. Chez Barthes, cette notion renvoie en effet aux pratiques minimalistes qui consistent à tenter d’épurer la langue, de restituer au plus près du réel, en se défaisant de tout écran stylistique, et ce pour aspirer à une certaine neutralité de la langue. Cette écriture, pour reprendre les propos de Barthes, se caractérise par le « style de l’absence qui est presque une absence idéale du style » (Le Degré zéro de l’écriture, Paris, Éditions du Seuil, 1953, p. 60).
32,123
339dc2e16e735c0e541a220016a71d28_29
French-Science-Pile
Open Science
Various open science
null
Référentiel technique pour la préservation de l'environnement marin dans les projets d'éoliennes en mer : Tome 2 - Interactions entre les projets d'éoliennes en mer et le milieu marin - avec focus sur les habitats benthiques de métropole et les espèces Natura 2000. Office Français de la Biodiversité. 2023. &#x27E8;hal-04500088&#x27E9;
None
French
Spoken
7,280
15,463
Statut : Au titre de la DHFF (92/43/CEE), l’habitat B6-2 peut correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Il peut également correspondre à l’HIC 8330 « Grottes marines » sous réserve de respect des critères d’identification de l’HIC (notamment de seuil de taille). Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 630 Risque d’impact face aux pressions physiques potentielles in duit es par un parc éoli en en mer ( PEM ) Type de PEM Phases cycle de vie Compartiments/activités d’un PEM Navires Prospection Construction/Démantèlement Techniques de prospection Modif. de la charge en particules (M12) Tassement (M4) Fondations (zone d'emprise) H Fondations (zone d'influence) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Changement d’habitat (M2) Eoliennes NA M Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en particules (M12) M Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone 'emprise) M Raccordement (zone d'influence) M Changement d’habitat (M2) F Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) F Modif. de la charge en particules (M12) Navires Techniques de prospection Navires NA Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) Exploitation/maintenance Changement d’habitat (M2) F Prospection Flottante Tassement (M4) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) F Navires Construction/démantèlement M M Raccordement (zone d'influence) Exploitation/Maintenance Pressions générant le score maximum Navires Raccordement (zone d'emprise) Fixe Risque d’impact M Changement d’habitat (M2) Changement d’habitat (M2) Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en particules (M12) Raccordement (zone d'influence) M Navires NA Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) 631 Changement d’habitat (M2) Risque d ’ impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires F Techniques de prospection NA Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions éléctromagnétiques (P9) ; Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques (C1) Navires F Enrichissement organique (C7) Techniques de prospection NA Navires Nev Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires Nev Métaux synthétiques et non synthétiques (C1) Fondations (zone d'emprise) NA Fondations (zone d'influence) NA oliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Métaux synthétiques et non synthétiques (C1) 632 CD-HAB 7154 B6-3 VASES INFRALITTORALES Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : Vases de la zone infralittorale, retrouvées dans des secteurs extrêmement abrités à des profondeurs de moins de 20 mètres généralement, et où les courants de marée sont très faibles. Ces conditions sont observables dans les baies, bras de mer, rades, ports, à proximité des estuaires ou encore dans les pertuis du littoral atlantique. L’habitat est soumis à une importante sédimentation de particules fines (> 63 μm), en étroite liaison avec les apports des bassins versants. Le sédiment est généralement cohésif et contient typiquement plus de 75 % de limon et d’argile (ratio sable:vase inférieur à 1:9). La couche oxydée du substrat peut être peu profonde et certaines parties peuvent être périodiquement ou en permanence anoxiques dans les secteurs les plus calmes. Des tapis de bactéries peuvent se développer sur la surface des sédiments. Statut : Au titre de la DHFF (92/43/CEE), l’habitat B6-3 peut correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Il peut également correspondre à l’HIC 8330 « Grottes marines » sous réserve de respect des critères d’identification de l’HIC (notamment de seuil de taille). Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 633 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe M Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Techniques de prospection M Extraction de substrat (M3) Navires M Tassement (M4) Abrasion profonde (M7) Remaniement (M8) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Pressions générant le score maximum d’impact Navires Fondations (zone d'emprise) Construction/Démantèlement Risque Remaniement (M8) Changement d habitat (M2) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel F (M9) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires M Techniques de prospection M Abrasion profonde (M7) Remaniement (M8) Extraction de substrat (M3) Navires NA Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires NA Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) M Raccordement (zone d'influence) M Remaniement (M8) Remaniement (M8) Changement d’habitat (M2) Changement d’habitat (M2) Remaniement (M8) Abrasion profonde (M7) Changement d’habitat (M2) Risque d’impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer (PEM) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires F Techniques de prospection NA Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise Enrichissement organique ( C 7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions éléctromagnétiques (P9) ; Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques (C1) Navires F Enrichissement organique (C7) Techniques de prospection NA Navires Nev Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires Nev Métaux synthétiques et non synthétiques (C1) Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Métaux synthétiques et non synthétiques (C1) 635 CD-HAB 2590 B6-4 VASES INFRALITTORALES EN MILIEU A SALINITE VARIABLE Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : Les vases infralittorales correspondent à l’habitat le plus répandu dans les fonds des estuaires et des lagunes littorales à marée. Dans les estuaires, le transport et le dépôt des particules fines sont liés à la circulation des masses d’eau, dite « circulation résiduelle », qui est la résultante de facteurs constants (bathymétrie et physiographie de l’estuaire) et variables (courants fluviaux, courants de marée, vents). Contrairement aux particules de sable, qui par charriage ou saltation s’éloignent relativement peu ou très progressivement de leur région d’origine, les particules de limon et d’argile peuvent transiter facilement le long de l’estuaire par suspension dans les masses d’eau. Le stock de particules en suspension qui forme le « bouchon vaseux » explique la distribution généralisée des vases au sein de l’estuaire, plus ou moins mobiles ou cohésives, stables ou éphémères. Dans les lagunes, le type d’envasement dépend du degré d’échange avec la mer. Les lagunes semi-fermées et fermées sont davantage propices à la sédimentation de particules fines que les lagunes ouvertes. La méiofaune et la macrofaune benthique sont particulièrement dépendantes de la stabilité du substrat. Les vases stables hébergent une faune relativement diversifiée à proximité des conditions marines et une faune paucispécifique mais plus abondante dans des conditions de salinité réduite. Les communautés comprennent généralement des oligochètes et des polychètes. Les vases instables ne permettent pas l’établissement d’une endofaune et sont extrêmement pauvres, voire dépourvues de macrofaune. Les seuls individus qui y sont échantillonnés proviennent d’autres milieux et sont amenés par les courants. Statut : Au titre de la DHFF (92/43/CEE), l’habitat B6-2 peut correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Il peut également correspondre à l’HIC 8330 « Grottes marines » sous réserve de respect des critères d’identification de l’HIC (notamment de seuil de taille). Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anti-corrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 636 Risque d’impact face aux pressions physiques potenti elles induit es par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Compartiments/activités d’un PEM Navires Prospection Construction/Démantèlement Fixe Techniques de prospection Prospection Construction/démantèlement Exploitation/maintenance M Tassement (M4) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Modif. de la charge en particules (M12) Navires M Tassement (M4) Fondations (zone d'emprise) H Fondations (zone d'influence) H Perte d’un habitat (M1) Changement d’habitat (M2) Dépôt important de matériel (M10) Changement d’habitat (M2) Eoliennes NA Changement d’habitat (M2) M Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en particules (M12) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires F Tassement (M4) Abrasion profonde (M7) Remaniement M8) Dépôt faible de matériel (M9) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Raccordement (zone d'influence) M Changement d’habitat (M2) Navires F Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Modif. de la charge en F particules (M12) Techniques de prospection Changement d’habitat (M2) Navires NA Fondations (zone d'emprise) NA Fondations (zone d'influence) NA Eoliennes NA Raccordement (zone d'emprise) Flottante Pressions générant le score maximum F Raccordement (zone d'emprise) Exploitation/Maintenance Risque d’impact Changement d’habitat (M2) M Remaniement (M8) Dépôt faible de matériel (M9) Modif. Cet habitat est généralement observé sur des affleurements rocheux entourés de sédiments grossiers. Ces derniers peuvent être du gravier coquillier ou du gravier vaseux hébergeant Urticina felina, Cerianthus lloydii et Neopentadactyla mixta. Au-dessus de cet habitat, on trouve généralement une forêt dense de laminaires. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 639 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Pressions générant le score maximum H Tassement (M4) Abrasion profonde (M7) Techniques de prospection M Extraction de substrat (M3)Tassement (M4) Abrasion profonde (M7) Navires H Tassement (M4) Abrasion profonde (M7) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3)Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) accordement (zone d'influence) M Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) Navires M Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires H Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) Exploitation/maintenance d’impact Navires Fondations (zone d'emprise) Construction/Démantèlement Risque Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Changement d’habitat (M2) Abrasion profonde (M7) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) M Navires NA Fondations (zone d'emprise) H Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) Fondations (zone d'influence) H Eoliennes NA Abrasion profonde (M7) Raccordement (zone d'emprise) H Abrasion profonde (M7) Raccordement (zone d'influence) M Changement d’habitat (M2) Tassement (M4) Abrasion profonde (M7) 640 Risque d’impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/ Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires F Techniques de prospection NA Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Fondations (zone d'influence) F Enrichissement organique (C7) Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques Navires F Enrichissement organique (C7) Techniques de prospection NA Navires Nev Métaux synthétiques et non synthétiques Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires Nev Fondations (zone d'emprise) M Métaux synthétiques et non synthétiques Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) 641 CD-HAB 7193 C1-2 ROCHES OU BLOCS CIRCALITTORAUX COTIERS A TUBULAIRES Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : L’habitat C1-2 à tubulaires représente un appauvrissement, en hydrodynamisme extrême, de l’habitat C1-3.1 Roches ou blocs circalittoraux côtiers à Alcyonium digitatum, Tubularia indivisa et anémones en zone de fort courant de mar Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 642 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires M Techniques de prospection M Tassement (M4) Abrasion profonde (M7) Extraction de substrat (M3) Navires M Tassement (M4) Abrasion profonde (M7) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Abrasion profonde (M7) Dépôt important de matériel (M10) Changement d’habitat (M2) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) M Raccordement (zone d'influence) M Changement d’habitat (M2) Navires F Tassement (M4) Abrasion profonde (M7) Remaniement (M Dépôt faible de matériel (M9) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires M Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Extraction de substrat (M3) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en particules (M12) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires NA Changement d’habitat (M2) Extraction de substrat (M3) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en particules (M12) Changement d’habitat (M2) Abrasion profonde (M7) Changement d’habitat (M2) Fondations (zone d'emprise) H Changement d’habitat (M2) Abrasion profonde (M7) Fondations (zone d'influence) M Changement d’habitat (M2) Abrasion profonde (M7) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Abrasion profonde (M7) Raccordement (zone d'influence) M Changement d’habitat (M2) Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires F Techniques de prospection NA Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Fondations (zone d'influence) F Enrichissement organique (C7) Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques, Métaux synthétiques et non synthétiques Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques Navires F Enrichissement organique (C7) Techniques de prospection NA Navires Nev Métaux synthétiques et non synthétiques Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C Raccordement (zone d'influence) F Enrichissement organique (C7) Navires Nev Fondations (zone d'emprise) M Métaux synthétiques et non synthétiques Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) 644 CD-HAB 7194 C1-3 ROCHES OU BLOCS CIRCALITTORAUX COTIERS A COMMUNAUTES FAUNISTIQUES DE FORTS COURANTS Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques station nelles : L’habitat C1-3 Roches ou blocs circalittoraux côtiers à communautés faunistiques de forts courants est constitué de différents assemblages d’espèces de filtreurs qui vont tirer partie de l’hydrodynamisme pour se développer. Bien que globalement fort, l’hydrodynamisme plus ou moins extrême généré par les courants de marée entrainera une sélection progressive des espèces les plus résistantes. La quantité de matière en suspension va également influencer la composition spécifique de cet habitat. La présence de dépôt sédimentaire jouera aussi un rôle de sélection des espèces capables de supporter ces apports. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Le sous-habitat C1-3.7 Placages de Sabellaria spinulosa sur roches du circalittoral côtier peut être considéré comme appartenant à l’habitat “Récifs de Sabellaria spinulosa” figurant sur la liste OSPAR des habitats menacés et/ou en déclin. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 645 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires H Tassement (M4) Techniques de prospection M Extraction de substrat (M3) Navires H Tassement (M4) Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Dépôt important de matériel (M10) Changement d’habitat (M2) Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) M profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Modif. de la charge en Raccordement (zone d'influence) M Changement d’habitat (M2) Navires F Fondations (zone d'emprise) H Perte d’un habitat (M1) ment d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires M Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Modif. Il se matérialise par l’abondance des ascidies solitaires, parfois accompagnées d’éponges dressées ou bien par l’assemblage du brachiopode Novocrania anomala et de l’anémone Protanthea simplex. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 648 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe H Tassement (M4) Abrasion profonde (M7) Techniques de prospection M Extraction de substrat (M3) Abrasion profonde (M7) Navires H Tassement (M4) Abrasion profonde (M7) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Dépôt important de matériel (M10) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires M Fondations (zone d'emprise) Exploitation/Maintenance Prospection Flottante Abrasion profonde (M7) Dépôt important de matériel (M10) Abrasion profonde M7) Perte d’un habitat (M1) Changement d’habitat (M2) Remaniement (M8) Dépôt important de matériel (M10) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires H Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Abrasion profonde (M7) Navires NA H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) Exploitation/maintenance Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Changement d’habitat (M2) H Fondations (zone d'emprise) Construction/démantèlement Pressions générant le score maximum d’impact Navires Fondations (zone d'emprise) Construction/Démantèlement Risque M Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9) Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) Dépôt faible de matériel (M9)Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) Abrasion profonde (M7) Abrasion profonde (M7) Changement d’habitat (M2) 649 Abrasion profonde (M7) Risque d’impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance ion Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires F Techniques de prospection NA Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Fondations (zone d'influence) F Enrichissement organique (C7) Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires F Enrichissement organique (C7) Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques, Métaux synthétiques et non synthétiques Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques Navires F Enrichissement organique (C7) Techniques de prospection NA Navires Nev Métaux synthétiques et non synthétiques Fondations (zone d'emprise) F Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) F Enrichissement organique (C7) Raccordement (zone d'influence) F Enrichissement organique (C7) Navires Nev Fondations (zone d'emprise) M Métaux synthétiques et non synthétiques Enrichissement organique (C7) Fondations (zone d'influence) F Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) Nev Emissions eléctromagnétiques (P9), Métaux synthétiques et non synthétiques (C1) 650 CD-HAB 7196 C1-5 ROCHES OU BLOCS CIRCALITTORAUX COTIERS A ECHINODERMES Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : Les roches ou blocs circalittoraux côtiers à échinodermes concernent pour l’essentiel l’habitat à Antedon bifida, mais Holothuria forskali et/ou Echinus esculentus peuvent également coloniser de manière significative certain platiers circalittoraux. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 651 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer ( PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe H Tassement (M4) Techniques de prospection M Extraction de substrat (M3) Navires H Tassement (M4) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Dépôt important de matériel (M10) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires F Fondations (zone d'emprise) Exploitation/Maintenance Prospection Flottante Exploitation/maintenance Remaniement (M8) Changement d’habitat (M2) Dépôt important de matériel (M10) Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt ible de matériel (M9) Perte d’un habitat (M1) Changement d’habitat (M2) Remaniement (M8) Dépôt important de H matériel (M10) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Raccordement (zone d'influence) M Changement d’habitat (M2) Navires M Abrasion profonde (M7) Remaniement (M8) Extraction de substrat (M3) Techniques de prospection M Navires NA Fondations (zone d'emprise) Construction/démantèlement Pressions générant le score maximum Navires Fondations (zone d'emprise) Construction/Démantèlement Risque d’impact Changement d’habitat (M2) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) Changement d’habitat (M2) Changement d’habitat (M2) Remaniement (M8) Changement d’habitat (M2) M NA Raccordement (zone d'emprise) M Raccordement (zone d'influence) M Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Changement d’habitat (M2) Eoliennes Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Abrasion profonde (M7) Remaniement (M8) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Changement d’habitat (M2) Risque d’impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires V Techniques de prospection NA organique (C7) Navires V Enrichissement organique (C7) Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) Navires NA Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions éléctromagnétiques (P9) ; Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques (C1) Navires V Enrichissement organique (C7) Techniques de prospection NA Navires Nev Fondations (zone d'emprise) V Métaux synthétiques et non synthétiques (C1) Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) Navires NA Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) 653 CD-HAB 7197 C1-6 ROCHES OU BLOCS CIRCALITTORAUX COTIERS A DOMINANCE D’OPHIOTHRIX FRAGILIS ET OU OPHIOCOMINA NIGRA ET DE SPONGIAIRES Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : En forte concentration, les ophiures peuvent recouvrir le substrat rocheux. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance d’impact Pressions générant le score maximum Navires H Tassement (M4) Abrasion profonde (M7) Techniques de prospection M Extraction de substrat (M3) Abrasion profonde (M7) Navires H Tassement (M4) Abrasion profonde (M7) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3)Tassement (M4) Abrasion profonde (M7) Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Fondations (zone d'emprise) Construction/Démantèlement Risque Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Abrasion profonde (M7) Dépôt faible de matériel (M9) accordement (zone d'influence) M Changement d’habitat (M2) Navires M Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement d’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires H Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Abrasion profonde (M7) Navires NA Fondations (zone d'emprise) H Changement d’habitat (M2) Abrasion profonde (M7) Fondations (zone d'influence) H Changement d’habitat (M2) Abrasion profonde (M7) Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires NA Fondations (zone d'emprise) H Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Abrasion profonde (M7) Abrasion profonde (M7) Abrasion profonde (M7) Dépôt faible de matériel (M9) Changement d’habitat (M2) Abrasion profonde (M7) Dépôt faible de matériel (M9) Changement d’habitat (M2) Abrasion profonde (M7) Abrasion profonde (M7) Abrasion profonde (M7) Changement d’habitat (M2) 655 Abrasion profonde (M7) Risque d’impact face aux pressions chimiques et biologiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Construction/Démantèlement Fixe Exploitation/Maintenance Prospection Construction/démantèlement Flottante Exploitation/maintenance Compartiments/activités d’un PEM Risque d’impact Pressions générant le score maximum Navires V Techniques de prospection NA Enrichissement organique (C7) Navires V Enrichissement organique (C7) Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d' V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) Navires NA Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) Nev Emissions éléctromagnétiques (P9) ; Métaux synthétiques et non synthétiques (C1) Raccordement (zone d'influence) ND Métaux synthétiques et non synthétiques (C1) Navires V Enrichissement organique (C7) Techniques de prospection NA Navires Nev Fondations (zone d'emprise) V Métaux synthétiques et non synthétiques (C1) Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) Navires NA Fondations (zone d'emprise) V Enrichissement organique (C7) Fondations (zone d'influence) V Enrichissement organique (C7) Eoliennes NA Raccordement (zone d'emprise) V Enrichissement organique (C7) Raccordement (zone d'influence) V Enrichissement organique (C7) 656 CD-HAB 7198 C1-7 ROCHES OU BLOCS CIRCALITTORAUX COTIERS A AMPHIPODES TUBICOLES Descriptif de l’habitat – Extrait de La Rivière et al., 2023 Caractéristiques stationnelles : Les amphipodes tubicoles construisent des tubes de vase consolidée dans lesquels ils vont passer la plupart de leur cycle de vie ; on parle alors d’espèce tubicole. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC. Fiches mesures concernées Mesure d’évitement - Fiche E1 - Evitement spatial des habitats benthiques et des zones fonctionnelles à fort enjeux environnementaux - Fiche E2 – Eviter l’utilisation de peintures antifouling et anti-corrosion sans contaminants pour les fondations Mesure de réduction - Fiche R2 - Choix du type de fondations ou d’ancrage - Fiche R3 – Utilisation de matériaux grossiers pour la sous-couche des enrochements Mesure de suivi - Fiche S3 - Suivi de l’effet récif et de la biocolonisation des fondations, flotteurs et lignes d’ancrage - Fiche S4 - Suivi de la contamination des sédiments et de la colonne d’eau par les anodes anticorrosion Mesure d’accompagnement - Fiche A2 - Acquisition de connaissances et suivis à grande échelle - Fiche A4 – Recherche et développement sur des mesures de réduction et de suivi 657 Risque d’impact face aux pressions physiques potentielles induites par un parc éolien en mer (PEM ) Type de PEM Phases cycle de vie Prospection Compartiments/activités d’un PEM Fixe Exploitation/Maintenance Prospection Flottante H Tassement (M4) Abrasion profonde (M7) M Extraction de substrat (M3) Abrasion profonde (M7) Navires H Tassement (M4) Abrasion profonde (M7) H Perte d’un habitat (M1) Changement d’habitat (M2) Extraction de substrat (M3)Tassement (M4) Abrasion profonde (M7) Remaniement (M8) Dépôt important de matériel (M10) Changement d’habitat (M2) Abrasion profonde (M7) Fondations (zone d'influence) H Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Navires M Abrasion profonde (M7) Fondations (zone d'emprise) H Perte d’un habitat (M1) Changement d’habitat (M2) Fondations (zone d'influence) H Changement ’habitat (M2) Eoliennes NA Raccordement (zone d'emprise) M Changement d’habitat (M2) Raccordement (zone d'influence) M Changement d’habitat (M2) Navires H Techniques de prospection M Abrasion profonde (M7) Extraction de substrat (M3) Abrasion profonde (M7) Navires NA H Eoliennes NA Raccordement (zone d'emprise) H Navires Fondations (zone d'emprise) Abrasion profonde (M7) Remaniement (M8) Changement d’habitat (M2) Changement d’habitat (M2) H Fondations (zone d'influence) Raccordement (zone d'influence) Exploitation/maintenance Pressions générant le score maximum Techniques de prospection Fondations (zone d'emprise) Construction/démantèlement d’impact Navires Fondations (zone d'emprise) Construction/Démantèlement Risque Modif. de la charge en particules (M12) Abrasion profonde (M7) Remaniement (M8) Abrasion profonde (M7) Abrasion profonde (M7) Remaniement (M8) en particules (M12) Changement d’habitat (M2) Modif. de la charge Abrasion profonde (M7) Abrasion profonde (M7) Remaniement (M8) Modif. de la charge en particules (M12) Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) Modif. de la charge en particules (M12) M NA Changement d’habitat (M2) Abrasion profonde (M7) Remaniement (M8) H en particules (M12) Fondations (zone d'influence) H Abrasion profonde (M7) Eoliennes NA Raccordement (zone d'emprise) H Raccordement (zone d'influence) M Abrasion profonde (M7) Changement d’habitat (M2) 658 Abrasion profonde (M7) Modif. Les roches ou blocs circalittoraux sont très peu recensés dans les faibles profondeurs des estuaires de la façade Mer du Nord – Manche – Atlantique (< 15 m). Ils ont tous été observés à proximité des embouchures, en domaine euhalin. Abrité des vagues et soumis à un hydrodynamisme faible à modérément fort, ces roches ou blocs circalittoraux peuvent être colonisés par des spongiaires, des balanes, des hydraires, des bryozoaires et des ascidies ainsi que par une faune vagile représentée par les crustacés décapodes et les poissons benthiques. La flore y est absente. Un manque flagrant de connaissance ne permet néanmoins pas de fournir ici une description complète de cet habitat. Il y a très peu de données et d’informations sur l’écologie des roches et blocs circalittoraux déjà localisés sur le littoral français et leur présence dans certains estuaires reste encore à confirmer. Statut : Au titre de la DHFF (92/43/CEE), cet habitat est inclus dans l’Habitat d’Intérêt Communautaire (HIC) 1170 « Récifs ». Il peut également correspondre à l’HIC 1130 « Estuaires », à l’HIC 1150 « Lagunes côtières » ou à l’HIC 1160 « Grandes criques et baies peu profondes » sous réserve de respect des critères d'identification géomorphologiques et de délimitation physiographiques de l'HIC.
28,328
30/tel.archives-ouvertes.fr-tel-02488941-document.txt_5
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
6,925
11,525
Nous avons vu dans ce chapitre le processus d'agrégation en solution des composés NDI2 et NDI4. Ces composés s'avèrent être des organogélateurs de divers solvants, et le processus d'agrégation en solution peut être suivi par les spectroscopies UV-Visible et FTIR. En effet, les spectres d'absorption UV-Visible des organogélateurs à l'état agrégé (dans la transdécaline à température ambiante) et dissocié (dans la trans-décaline à haute température ou dans le chloroforme) présentent des spectres avec des rapports A0-0/A0-1 > 1 à l'état agrégé et < 1 à l'état dissocié. L'évolution de ce rapport en fonction de la température et de la concentration des 139 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nu ants de polymères conjugués organogélateurs dans la trans-décaline nous a permis de déterminer des températures de transitions agrégé/dissocié et de construire un diagramme de phase à faibles concentrations. Pour les plus hautes concentrations, la spectroscopie Infrarouge a été utilisée, notamment le suivi des bandes liées aux liaisons hydrogène (Amide A et 1) et des températures de transitions ont pu être mesurées. Les diagrammes de phases ont ainsi été obtenus pour les deux composés dans la transdécaline et les domaines de stabilité des gels déterminés. Ces domaines de stabilité vont nous être précieux lors de la création en solution des hybrides NDI:P3HT dans le Chapitre IV. Une différence majeure est visible entre les gels de NDI2 et NDI4. En effet, les gels de NDI4 présentent une seule population de liaisons hydrogène identique selon le type de refroidissement appliqué aux gels. Pour le NDI2 ce , plusieurs populations de liaisons hydrogène entrent en jeu dans l'empilement moléculaire et dans le cas des gels refroidis rapidement, une population additionnelle est visible sur les spectres FTIR. Cette population additionnelle observée est expliquée par une petite fraction de liaisons hydrogène peu stables et qui n'ont pas eu le temps de s'ordonner lors du processus de refroidissement rapide. Les liaisons hydrogène sont toujours plus fortes dans NDI4 que dans NDI2. La différence du nombre de populations de liaisons hydrogène entre les gels de NDI2 et de NDI4 est directement liée à la longueur de l'espaceur flexible entre le coeur NDI qui permet le π-stacking et les groupements amides qui permettent les liaisons hydrogène. 141 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nucléants de polymères conjugués Bibliographie (1) Molla, M. R.; Ghosh, S. Structural Variations on Self-Assembly and Macroscopic Properties of 1,4,5,8-Naphthalene-Diimide Chromophores. Chem. Mater. 2011, 23, 95–105. (2) Kalita, A.; Subbarao, N. V. V.; Iyer, P. K. Large-Scale Molecular Packing and Morphology-Dependent High Performance Organic Field-Effect Transistor by Symmetrical Naphthalene Diimide Appended with Methyl Cyclohexane. J. Phys. Chem. C 2015, 119, 12772–12779. (3) Ofir, Y.; Zelichenok, A.; Yitzchaik, S. 1, 4; 5, 8-Naphthalene-Tetracarboxylic Diimide Derivatives as Model Compounds for Molecular Layer Epitaxy. J. Mater. Chem. 2006, 16, 2142–2149. (4) Percec, V.; Peterca, M.; Tadjiev, T.; Zeng, X.; Ungar, G.; Leowanawat, P.; Aqad, E.; Imam, M. R.; Rosen, B. M.; Akbey, U.; et al. Self-Assembly of Dendronized Perylene Bisimides into Complex Helical Columns. J. Am. Chem. Soc. 2011, 133, 12197–12219. (5) van Herrikhuyzen, J.; Jonkheijm, P.; Schenning, A. P. H. J.; Meijer, E. W. The Influence of Hydrogen Bonding and Π–π Stacking Interactions on the Self-Assembly Properties of C3Symmetrical Oligo(p-Phenylenevinylene) Discs. Org. Biomol. Chem. 2006, 4, 1539. (6) Matthews, R. P.; Welton, T.; Hunt, P. A. Competitive Pi Interactions and Hydrogen Bonding within Imidazolium Ionic Liquids. Phys. Chem. Chem. Phys. , 16, 3238. (7) Sarbu, A. Structure et auto-organisation d'organogélateurs électron-accepteurs à base de pérylène bisimide, Université de Strasbourg, 2014. (8) Langhals, H. Cyclic Carboxylic Imide Structures as Structure Elements of High Stability, Novel Developments in Perylene Dye Chemistry, Heterocycles, 1995, 40, 477-500 (9) Blake, E. S.; Hammann, W. C.; Edwards, J. W.; Reichard, T. E.; Ort, M. R. Thermal Stability as a Function of Chemical Structure. J. Chem. Eng. Data 1961, 6, 87–98. (10) Kolhe, N. B.; Devi, R. N.; Senanayak, S. P.; Jancy, B.; Narayan, K. S.; Asha, S. K. Structure Engineering of Naphthalene Diimides for Improved Charge Carrier Mobility: Self-Assembly by Hydrogen Bonding, Good or Bad? J. Mater. Chem. 2012, 22, 15235. (11) Sarbu, A.; Biniek, L.; Guenet, J.-M.; Mésini, P. J.; Brinkmann, M. Reversible J- to HAggregate Transformation in Thin Films of a Perylenebisimide Organogelator. J Mater Chem C 2015, 3, 1235–1242. 142 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nucléants de polymères conjugués (12) Bayliss, N. S. The Effect of the Electrostatic Polarization of the Solvent on Electronic Absorption Spectra in Solution. J. Chem. Phys. 1950, 18, 292–296. 143 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nucléants de polymères conjugués (24) Tsukada, Y.; Nishimura , N. ; Mizuguchi , J. N, N ′ -Bis(2-Phenylethyl)naphthalene-1,8:4,5Bis(dicarboximide). Acta Crystallogr. Sect. E Struct. Rep. Online 2008, 64, o5–o5. 144 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nucléants de polymères conjugués 145 Chapitre II: Mécanismes d'agrégation, diagramme de phase et structure d'organogélateurs à coeur naphthalène diimide utilisés comme agents nucléants de polymères conjugués 146 Chapitre III: Polymorphisme du NDI2 Chapitre III: Polymorphisme du NDI2 147 Chapitre III: Polymorphisme du NDI2 Sommaire Résumé 149 I. Introduction 151 II. Mise en évidence du polymorphisme 153 II.1. Morphologie des différentes formes 153 II.1. Caractéristiques structurales des différentes formes 157 II.3. Caractéristiques spectroscopiques des différents polymorphes 158 III. Empilement moléculaire pour les formes III (Lam) et IV (Cr) 162 III.1. Empilement moléculaire pour la forme IV Cr 162 III.2. Empilement moléculaire pour la forme III Lam 164 IV. Modélisation de la structure de la forme II HexCol 168 IV.1. Construction d'un modèle en hélice supramoléculaire 168 IV.2. Processus de formation de la forme II HexCol à partir du «fondu»: analyse FTIR en température 176 V. Proposition d'un modèle d'empilement moléculaire pour la forme I Col 179 VI. Transitions entre les différentes phases: établissement d'un diagramme de transition de phases à l'état solide 182 VII. Conclusion 184 Bibliographie 186 148 Chapitre III: Polymorphisme du NDI2 Résumé Ce chapitre présente le polymorphisme à l'état solide d'un organogélateur à coeur naphthalène diimide: le NDI2. La DSC de ce composé, présentée dans le chapitre précédent ainsi que l'étude des gels de NDI2 mettent en évidence différentes formes solides de ce composé. Une étude par DSC plus poussée (avec différents domaines de températures de cycle) révèle en tout quatre phase . - la forme I (colonnaire, Col): cette forme est obtenue par séchage des gels de NDI2. C'est une phase colonnaire caractérisée par des distances inter-colonnaires de 32 et 24.3 Å et une distance d'empilement de 4.9 Å et des substituants inclinés par rapport à l'axe d'empilement. Elle a une maille monoclinique avec pour paramètres: a = 24.3 Å, b = 32.3 Å, c = 9.87 Å, α = γ = 90° et β = 97°. Cette phase est également obtenue par traitement en vapeurs de solvant de chloroforme de films minces. - la forme II (hexagonale colonnaire, HexCol) est obtenue à partir du fondu (T > 220 °C). Chapitre III: Polymorphisme du NDI2 I. Introduction Comme nous l'avons vu dans le chapitre précédent, l'empilement des molécules de NDI varie avec le substituant. Dans la littérature, selon les substituants, les molécules de NDIs peuvent s'empiler de manière à former des cristaux1–9, des fibres 10–12 ou des agglomérats non définis13. Cependant, une même molécule peut s'empiler de façons différentes selon le mode d'élaboration. Il s'agit alors de polymorphisme à l'état solide14–18. Ce polymorphisme peut changer la morphologie en films minces mais surtout changer la structure moléculaire des matériaux et donc des propriétés électroniques. Dans la thèse d'Alexandru Sarbu, des composés à base de coeur pérylène bisimide ont été étudiés (Figure 1 ci-dessous). Le composé nommé PBIC8 possède les mêmes substituants que le NDI2, seul le coeur conjugué change et influence le polymorphisme de ces composés. En effet dans le cas du NDI2, le polymorphisme est clairement prouvé par plusieurs transitions visibles par DSC. En revanche pour le PBIC8, aucun polymorphisme n'est observé19. Si à présent, les chaînes alkyles sont modifiées (PBIC10), on retrouve un polymorphisme à l'état solide avec deux formes distinctes: une forme fibrillaire avec une structure colonnaire et une forme liquide cristalline constituée d'hélices supramoléculaires15. Ces deux formes seront comparées aux formes obtenues pour le NDI2. Figure 1: Structure du PBIC8 et PBIC10. Le but de ce chapitre est d'étudier le polymorphisme à l'état solide du NDI2 afin de maîtriser ensuite la formation de matériaux hybrides. Nous allons tout d'abord présenter les différentes formes obtenues par traitements thermiques. Leurs signatures optiques, spectroscopiques et structurales vont être déterminées et des modèles structuraux pour chaque forme vont être proposés. Puis, les transitions entre ces différentes formes vont être suivies par DSC, par 151 Chapitre III: Polymorphisme du NDI2 spectroscopies UV-Visible (changement dans le π-stacking) et FTIR (pour les liaisons hydrogène) et par microscopie électronique en transmission en fonction de la température afin de clarifier le rôle des interactions de π-stacking et de liaisons hydrogène entre les groupements amides. 152 Chapitre III: Polymorphisme du NDI2 II. Mise en évidence du polymorphisme II.1. Morphologie des différentes formes Nous avons vu dans le chapitre précédent comment obtenir la forme fibrillaire du NDI2 (gel séché ou SVA de chloroforme). Cette forme fibrillaire est donc l'une des formes solides du NDI2. Par traitement thermique, il est possible d'en obtenir d'autres dont les caractéristiques morphologiques sont différentes (Figure 2). Figure 2: Images obtenues par a), d) et g) Microscopie Optique Polarisée (dépôt sur substrat de verre); b), e) et h) AFM: b) et e) hauteur; h) contraste de phase (dépôt sur substrat de silicium); c), f) et i) MET en champ clair. Les images obtenues par MOP donnent une idée de la morphologie et de la biréfringence des objets. Les images obtenues par MET en champ clair donnent des dimensions d'objets plus précises. Les images obtenues par AFM permettent de connaître la topographie des phases obtenues. Chapitre III: Polymorphisme du NDI2 Les formes II, III et IV contrairement à la forme I Col fibrillaire (Figures 2a, b et c) sont très biréfringentes (Figures 2d et g). En effet, les fibres de la phase I gel séché sont difficilement visibles en microscopie optique polarisée. Il est nécessaire de travailler en contraste de phase pour les visualiser. Nous obtenons la forme II HexCol par recuit thermique au-delà de la température de fusion du NDI2 en forme d'aiguilles (Figure 2d) dont la longueur peut atteindre plusieurs micromètres. La largeur est mesurée plus précisément par MET en champ clair (Figure 2f) et varie de 2 à 20 μm. La hauteur de ces aiguilles est mesurée par AFM (Figure 2e, zones brunes foncées) et vaut quelques dizaines de nanomètres. Toujours selon l'AFM, la surface des aiguilles (Figure 2e, zones brunes foncées) est plane. On observe des zones qui n'ont pas cristallisé (zones jaunes, brun clair, Figure 2e). La morphologie de cette phase est caractéristique d'une phase liquide cristalline. Une troisième forme est obtenue par recuit du NDI2 à une température très proche de sa température de fusion. Elle est constituée de grands cristaux sphérolitiques avec une largeur d'une centaine de micromètres (Figures 2g et 2i) et une épaisseur de plusieurs centaines de nanomètres (Figure 2h et son analyse Figure 3 Partie expérimentale). D'un point de vue morphologique, nous avons obtenu trois formes différentes pour le NDI2 à l'état solide. Le but de ce paragraphe est de déterminer les conditions exactes pour les obtenir ainsi que les transitions d'une forme à une autre. Pour ce faire, nous avons réalisé plusieurs cycles de DSC sur des domaines de températures différents (Figure 3): de 25 à 250 °C, de 25 à 210 °C et de 25 à 180 °C à 10 °C/min. La liste des transitions ainsi que la valeur des températures et des enthalpies de transition correspondantes sont présentées dans le Tableau 1. 154 Chapitre III: Polymorphisme du NDI2 Figure 3: Courbes de DSC à 10 °C/min du NDI2 avec des cycles sur différents domaines de température : a) de 25 à 230 °C en partant de la phase fibrillaire I Col, b) de 25 °C à 250 °C, c) de 25 °C à 210 °C et d) de 25 °C à 180 °C. Les images obtenues par microscopie optique polarisée pour chaque cycle en fonction de la température sont représentées. 155 Chapitre III: Polymorphisme du NDI2 Courbe Chauffe jusqu'à a) 230 °C b) 250 °C c) 210 °C d) 180 °C Liste des transitions Chauffe Refroidissement I Col - (142 °C, 14 kJ/mol) – III Lam – (210 °C, 75 kJ/mol) – Isotrope II HexCol - (177 °C, -30 kJ/mol) Isotrope – (187 °C, -39 kJ/mol) – – III Lam – II HexCol (210 °C, 72 kJ/mol) – Isotrope IV Cr – (99 °C, 24 kJ/mol) – III Isotrope – (198 °C, -62 kJ/mol) – Lam - Isotrope III - (93 °C, -28 kJ/mol) – IV Cr IV Cr – (99 °C, 26 kJ/mol) – III III Lam - (91 °C, -29 kJ/mol) – Lam IV Cr Tableau 1: Liste des températures et enthalpies de transition correspondantes pour chaque cycle de DSC effectué. Courbe a): Elle met en évidence une transition endothermique à 150 °C associée à la transition I Col (gel séché) → III Lam. Les images obtenues par microscopie montrent que la morphologie fibrillaire est conservée mais il y a apparition de zones très biréfringentes lors de la transition vers la phase III Lam. Cette transition est irréversible. Il est impossible de revenir vers la phase I Col par un traitement thermique une fois passé dans la phase III Lam. Ainsi, une fois la température de 150 °C dépassée, nous retombons sur les courbes DSC b), c) ou d) selon la température maximale appliquée. Ceci montre que la phase gel séché (forme I Col) n'est pas la forme thermodynamiquement stable, elle se transforme au–delà de 150 °C en forme III Lam. Courbe b): La deuxième courbe (de 25 à 250 °C) met en évidence une transition exothermique entre la forme en aiguille (II HexCol) et la forme avec des cristaux (III Lam), puis la fusion pour donner la phase isotrope. Comme pour la transition I Col → III Lam, la transition II Hexcol → III Lam en microscopie optique présente des objets qui conservent leur forme, seule leur biréfringence change. Courbe c): Dans ce cas, on ne chauffe pas au-delà de la température fusion de NDI2, mais légèrement en dessous (≤ 210 °C). Dans ces conditions, en refroidissant, ce n'est plus la phase II HexCol qui se forme mais deux autres phases différentes. Une première phase est stable au-dessus de 100 °C et une deuxième en dessous de 100 °C. Il n'y a aucune différence morphologique entre ces deux formes mais une transition à 100 °C se manifeste avec une mol. Cette enthalpie est typique de fusion de chaînes alkyles20. Nous nommerons ces différentes formes IV Cr pour T < 100 °C et III Lam pour 100 °C < T < 210 °C. Enfin, la température de cristallisation de la phase II HexCol est de 187 °C (pour un cycle de DSC jusqu'à 250 °C) alors que la température de cristallisation de la phase III Lam est de 198 °C. Nous nommerons donc la forme I Col la forme fibrillaire et la forme II HexCol la phase en forme d'aiguille. La forme IV Cr est la forme cristalline à température ambiante. II.1. Caractéristiques structurales des différentes formes Comme nous l'avons vu précédemment, chaque forme a une morphologie différente. Pour avoir de plus amples informations structurales, nous avons étudié ces différentes formes par diffraction des rayons X sur poudre. Comme nous réalisons ces clichés à température ambiante (Figure 4), cela est possible uniquement pour les formes I Col (courbe verte), II HexCol (courbe bleue) et IV Cr (courbe rouge). Figure 4: Graphes obtenus par Diffraction par Rayons X sur poudre de la a) forme I Col, b) forme II HexCol et c) forme IV Cr. d), e) et f) images MOP correspondantes aux différentes formes. Chapitre III: Polymorphisme du NDI2 Cette analyse nous montre que les formes I Col (morphologie fibrillaire, Figure 4a) et II HexCol (morphologie en aiguilles, Figure 4b) sont des formes colonnaires sans réelle évidence d'un quelconque π-stacking. Les distances inter-colonnaires obtenues sont 25 et 32 Å pour la forme I et de 26 Å pour la forme II. En revanche la forme IV Cr (morphologie cristalline, Figure 4c) montre un diffractogramme typique d'une phase cristalline. Les diffractogrammes montrent que les phases sont pures. Ce résultat important permettra ultérieurement de déterminer un modèle d'empilement moléculaire pour chaque phase. II.3. Caractéristiques spectroscopiques des différents polymorphes Nous obtenons donc des formes solides morphologiquement et structuralement différentes. Pour avoir des informations plus poussées sur les interactions ayant lieu au sein de chaque forme, nous avons analysé les différentes formes en films minces par spectroscopies UV-Visible (Figure 5a) et FTIR (Figure 5b). Figure 5: a) Spectres d'absorption UV-Vis et b) FTIR (zone vNH) des différentes formes solides obtenues comparées avec le gel dans la trans-décaline la solution dans le chloroforme. Chapitre III: Polymorphisme du NDI2 Les signatures spectroscopiques de ces différentes formes ont été comparées entre elles et avec le spectre des molécules de NDI2 dans le chloroforme et celui des fibres de NDI2 dans la transdécaline à température ambiante et à haute température. a) Analyse des spectres UV-Visible ( Figure 5a et Tableau 2) Les différentes contributions dans les spectres d'absorption UV-Visible selon les formes sont répertoriées dans le Tableau 2 ci-dessous. Echantillon Fibres dans la trans-décaline Forme I Col Forme II HexCol Forme III Lam Forme IV Cr Etat dissocié dans la trans-décaline Solution dans CHCl3 A0-0 (nm) 385 385 383 376 371 378 382 A0-1 (nm) 362 362 362 362 354 358 361 A0-2 (nm) 344 346 346 340 344 Tableau 2: Position en nm des différents pics obtenus en spectroscopie UV-Visible A0-0, A0-1 et A0-2. Le spectre d'absorption UV-Visible du NDI2 dans le chloroforme (brun) ainsi que le spectre dans la trans-décaline à haute température (orange) correspondent à l'état dissocié du NDI2. Cet état dissocié présente un spectre avec une structure vibronique bien définie et un léger décalage en longueur d'onde (4 nm de décalage pour la position de A0-0 et A0-1) selon le solvant dû au solvatochromisme. Les spectres de la forme I Col (vert) et II HexCol (bleu) et des fibres dans la transdécaline (noir) présentent des spectres assez proches de celui de l'état dissocié du NDI2. Une structure vibronique bien définie est toujours présente, seul un léger changement dans les rapports A0-0/A0-1 et un déplacement de la position de A0-0 de 3 nm par rapport au spectre dans le chloroforme est observé. De plus, aucune bande additionnelle n'apparaît sur les spectres de ces formes à plus haute ou plus basse longueur d'onde. Ceci signifie que les formes I Col et II HexCol possèdent un π-stacking assez faible voire absent. En revanche pour les formes III Lam et IV Cr (spectres violet et rouge), on observe un très grand déplacement de la position du pic A0-0 comparé aux autres spectres (6 à 11 nm). Les spectres ne présentent pas de structure vibronique bien définie et sont fortement élargis, ce qui est typique d'un π-stacking assez fort des molécules dans ces deux polymorphes. Chapitre III: Polymorphisme du NDI2 b) Analyse de la bande des CH2 des chaînes alkyles et de la bande Amide A des spectres FTIR (Figure 5b et Tableau 3) Les différentes contributions des spectres FTIR selon les formes sont répertoriées dans le Table au 3 ci-dessous. Echantillon Fibres dans la transdécaline Forme I Col Forme II HexCol Forme III Lam Forme IV Cr Etat dissocié dans la trans-décaline Solution dans CHCl3 νasCO (cm-1) νCOamide (cm-1) νCH2 chaînes -1 alkyles (cm ) νNH (cm-1) νsCO (cm-1) 3277 1706 1660, 1666 1637, 1645 - 3270 3334, 3357, 3409 3325 3325 1705 1661, 1667 1637, 1645 2924 1705 1670 1642, 1651 2926 1703 1704 1671 1672 1628 1628 2926 2921 3410 1707 1669 > 1645 - 3418, 3425, 3446 1706 1667 > 1650 2929 Tableau 3: Position en cm-1 des différents pics obtenus en spectroscopie FTIR: vNH, νsCO, νasCO, νCOamide et vCH2 des chaînes alkyles. La position de la bande Amide A (νNH) qui représente l'élongation de la liaison N-H diffère selon les formes ce qui reflète des liaisons hydrogène de forces différentes. Dans le chloroforme (brun) et dans la trans-décaline à haute température (orange), la bande Amide A est située à un haut nombre d'onde (> 3410 cm-1). Ceci signifie que les groupements amides sont très faiblement liés21 et donc que les liaisons hydrogène sont très faibles et qu'il y en a peu. Dans le chloroforme et dans la trans-décaline à haute température, les spectres sont caractéristiques d'un état dissocié. La forme I Col (vert) et le gel dans la trans-décaline (noir) possèdent les liaisons hydrogène les plus fortes car la bande Amide A se situe à des nombre d'onde les plus faibles (3270 et 3277 cm-1). La forme III Lam (violet) et la forme IV Cr (rouge) présentent une bande Amide A à la même position et possèdent une force de liaisons hydrogène intermédiaire entre la forme I Col et la forme II HexCol. Chapitre III: Polymorphisme du NDI2 La forme II HexCol (courbe bleue) présente une bande possédant plusieurs contributions (trois au minimum) dont une à 3409 cm-1 qui montre que cette forme possède une population de groupements amides pratiquement non liés. La fréquence de la bande des CH2 des chaînes alkyles (Tableau 3) nous donnent des informations sur la cristallinité des chaînes alkyles. Plus cette fréquence est haute, plus les chaînes alkyles ont des conformations gauches et moins elles sont ordonnées22,23. Ainsi pour NDI2 en solution dans le chloroforme (brun), cette bande a une fréquence plus élevée que les autres formes, car le NDI2 est dissocié et les chaînes latérales sont mobiles. Pour les formes I Col (vert), II HexCol (bleu) et III Lam (violet), les nombres d'onde de ces bandes sont entre 2924 et 2926 cm-1 ce qui montre que les chaînes alkyles sont peu ordonnées. Pour la forme IV Cr (rouge), cette fréquence est de 2921 cm-1 ce qui montre qu'elle possède les chaînes alkyles les plus cristallisées. En résumé pour la force d'empilement entre coeurs NDIs: NDI2 CHCl3 ~ NDI2 trans-décaline ~ forme I Col ~ forme II HexCol << forme III Lam ~ forme IV Cr et la force des liaisons hydrogène: NDI2 CHCl3 < forme II HexCol < forme III Lam, forme IV Cr < NDI2 trans-décaline, forme I Col Nous savons donc quelle forme possède le π-stacking le plus fort et quelle est celle qui possède les plus fortes liaisons hydrogène. En comparant la force de ces liaisons et les stabilités thermiques des différentes phases, on remarque plusieurs choses. La forme thermodynamiquement stable (IV Cr) possède à la fois des liaisons hydrogène et du π-stacking. Les formes gel séché I Col et II HexCol ne montrent aucun π-stacking. Donc on peut dire que la présence simultanée de π-stacking et de liaisons hydrogène entre amides donne une phase thermodynamiquement stable. Lorsque les conditions de formation des phases sont cinétiquement limitées (trop rapides), on forme des liaisons hydrogène mais pas de π-stacking. Ces phases sont alors métastables car elles peuvent se réorganiser lors d'un recuit thermique. Chapitre III: Polymorphisme du NDI2 III. Empilement moléculaire pour les formes III (Lam) et IV (Cr) III.1. Empilement moléculaire pour la forme IV Cr Une première analyse de la structure de la forme IV Cr sur poudre par DRX (Figure 4c) permet de déduire une maille. Dans le cas des films minces présentant des cristaux, nous avons vérifié si cette phase est bien identique à la phase observée dans les poudres. Pour ce faire, nous avons réalisé une étude en diffraction électronique sur des films orientés de la forme IV Cr sur PTFE orienté. (Figure 6 ci-dessous). Afin d'obtenir des films orientés de cette forme, nous avons tout d'abord du fondre le film de NDI2 sur le PTFE pour que les cristaux s'alignent sur le substrat orienté. Puis un recuit thermique à 180 °C a été réalisé pour avoir uniquement la forme cristalline. Figure 6: Clichés de diffraction électronique d'un film mince de la forme IV Cr du NDI2 orienté sur du PTFE a) sans rotation et b) avec une rotation le long de l'axe b*. Les astérisques blanches présentent sur les clichés représentent les réflexions du PTFE. Grâce à un porte-objet spécifique, nous avons pu obtenir des paramètres de maille de la phase présente dans les films orientés sur PTFE. Le Tableau 4 regroupe les paramètres de maille déterminés pour la poudre et les films minces cristallins obtenus à partir du fondu. Paramètres Monocristaux DRX MET Rotation-tilt a 24.3 Å 24.8 Å 24.2 Å b 16.2 Å 16.6 Å 16.3 Å c 9.87 Å 10.0 Å 10.1 Å α 90° 90° 90° β 97° 103° 99.7° γ 90° 90° 90° Tableau 4: Paramètres de maille déterminés pour les formes III Lam et IV Cr. 162 Chapitre III: Polymorphisme du NDI2 On voit que les paramètres de maille correspondent bien à une même phase cristalline. Nous avons eu la chance de faire croître des monocristaux dans un mélange MeOH/CHCl3. La structure complète de cette forme peut être déterminée par diffraction de rayons X sur monocristaux et est présentée Figure 7 ci-dessous. Figure 7: Structure moléculaire de la forme IV Cr obtenue par monocristaux : a) projection selon l'axe a et b) zoom de cette projection et c) projection selon l'axe c. Les atomes d'hydrogène ont été omis pour plus de clarté. L'empilement moléculaire obtenu pour la forme IV Cr est assez loin de ce que l'on attendrait pour de telles molécules. En effet, on peut penser que les coeurs NDIs s'empilent pour former des phases colonnaires Dans la forme IV Cr de NDI2, les coeurs NDIs ne sont pas capables de s'empiler par π-stacking et de former des colonnes. En fait, chaque coeur NDI recouvre fortement deux groupements phényles de deux dendrons appartenant à deux molécules voisines. La distance d'empilement coeur NDI - - - Phényle est de 3.5 Å (Figures 7a et b). Cette interaction de π-stacking entre coeur NDI et groupements phényles explique le déplacement et l'élargissement de line (Figure 5a). De plus, l'organisation de cette phase est articulée par des liaisons hydrogène entre les groupements NH et C=O de l'amide. Ces liaisons se font le long de l'axe c de la maille élémentaire (Figure 7b) avec une distance C=O - - - H-N de 1.9 Å. Cette structure ne présente qu'une seule population d'amides liés, ce qui est cohérent avec son spectre infrarouge présentant une seule bande Amide A à 3325 cm-1 (Figure 5b) et également une seule bande Amide 1 à 1630 cm-1 (élongation C=O). La fréquence assez élevée de l'Amide A est également cohérente avec la structure. Les plans CONH d'amides consécutifs ne sont pas coplanaires ce qui affaiblit la liaison H. La projection selon l'axe c (Figure 7c) indique que la forme IV Cr est une structure en couches avec une alternance de couches de chaines latérales inter-digitées et de ouches de coeurs NDIs et de groupements phényles π-stackés. III.2. Empilement moléculaire pour la forme III Lam La forme III Lam est obtenue par chauffage de la forme IV Cr. La transition IV Cr → III Lam se caractérise en DSC (Figure 3c et d) par un pic à 100 °C avec une enthalpie d'environ 25 kJ/mol qui correspond à la fusion des chaînes alkyles. Cette transition ne s'accompagne pas d'un changement morphologique. De même, la forme du spectre d'absorption UV-Visible (Figure 8a) et la majorité des bandes en FTIR restent identiques lors de cette transition (Figures 8b et c). Figure 8: Evolution spectroscopique de la transition forme IV Cr → forme III Lam a) UV-Visible (zone 320-400 nm) et FTIR b) bande amide vNH et c) zone 1800-1480 cm-1 en fonction de la température (20 °C 164 Chapitre III: Polymorphisme du NDI2 à 170 °C). Pour la spectroscopie FTIR, il n'y a pas de changement dans les liaisons hydrogène (Figures 8b et c). Mais la fréquence des bandes d'élongation CH des chaînes alkyles augmente. Cette élongation a un mode symétrique (νsCH2 vers 2850 cm-1) et un mode asymétrique (νasCH2 vers 2920 cm-1) (Figure 9a). La position de la bande νasCH2, augmente avec la température d'environ 5 cm-1 (Figure 9b). Figure 9: Evolution spectroscopique de la transition forme IV Cr → forme III Lam a) zone vCH2 des chaînes alkyles en fonction de la température (20 °C à 170 °C). b) Evolution de la position vCH2 des chaînes alkyles à 1920 cm-1 en fonction de la température. Ce déplacement signifie que les chaînes alkyles ne sont plus cristallisées dans la phase III Lam mais désordonnées. L'évolution du déplacement de cette bande en fonction de la température nous donne une température de transition d'environ 90 °C (Figure 9b) proche de celle obtenue par la DSC (100 °C). Nous avons donc prouvé qu'entre la forme IV Cr et la forme III Lam les chaines alkyles passent d'un état cristallisé à un état fondu alors que ni le π-stacking, ni les liaisons hydrogène entre amides ne sont modifiées. Par conséquent, afin d'avoir une vision plus claire de cette transition, nous avons analysé un film orienté en MET et suivi le changement du cliché de diffraction en fonction de la température. 165 Chapitre III: Polymorphisme du NDI2 La Figure 10 montre trois clichés expérimentaux: le cliché de la forme IV Cr à 30 °C (Figure 10a), le cliché de la même zone à 150 °C (Figure 10b) et le cliché de la même zone après refroidissement à température ambiante (Figure 10c). Figure 10: Evolution des clichés de diffraction électronique obtenus par MET in situ en fonction de la température: de 35 °C (a) à 150 °C (b) et retour à 30 °C (c). Tout d'abord ce que l'on remarque c'est qu'en fonction de la température et jusqu'à 170 °C (Figure 10b), les clichés de diffraction sont caractéristiques d'un état cristallin, avec des réflexions plus ou moins intenses selon la forme III Lam ou la forme IV Cr. Grâce à la structure déterminée de la forme IV Cr, il nous est possible d'indexer les réflexions obtenues sur les clichés de diffraction électroniques des formes III Lam et IV Cr. A température ambiante, les réflexions les plus intenses sont celles indexées (0, 2, 2), (0, 4, 0), (0, 2, -2), (0, -2, -2), (0, 4, 0) et (0, -2, 2) et le cliché de diffraction obtenu correspond à celui simulé de la phase cristalline. Quand la température augmente jusqu'à 170 °C, ces réflexions deviennent de moins en moins intenses et les réflexions à (0, 1, 1), (0, -2, 0), (0, 1, -1), (0, -1, -1), (0, 2, 0) et (0, -1, 1) deviennent les plus intenses. Ce changement dans les clichés de diffraction nous a incités à calculer un cliché d'une structure de la forme IV Cr sans tenir compte des chaînes alkyles cristallisées. En effet, si ces chaînes sont fondues, elles donnent lieu à un halo diffus dans le cliché de diffraction, mais ne contribuent plus aux intensités des taches de la forme cristalline. Le cliché de la Figure 11a est celui obtenu pour la forme IV Cr sans chaînes alkyles. Chapitre III: Polymorphisme du NDI2 Figure 11: a) Cliché simulé de la forme IV Cr sans les chaines alkyles et b) cliché de diffraction électronique expérimental de la forme III Lam (150 °C). On observe clairement que les raies les plus intenses sont du type (0, ± 1, ± 1) et (0, ± 2, 0) comme celles observées dans le cliché à 150 °C (Figure 11b). Par conséquent, ce résultat valide l'hypothèse selon laquelle la forme III Lam est isostructurale à la forme IV Cr mis à part les chaînes alkyles désordonnées/fondues dans la forme III Lam. Pour la forme III Lam, on peut s'attendre à une variation du paramètre a par rapport à la forme IV Cr en raison de la fusion des chaînes alkyles. Mais nos expériences MET ne permettent pas d'observer la structure selon cette direction (nos cristaux ont un axe de zone [100]). La forme III est donc une phase lamellaire (Lam) et la forme IV est une phase cristalline (Cr). Nous pouvons donc proposer un modèle d'empilement moléculaire de cette forme III Lam (Figure 12) qui est identique à celui de la forme IV Cr mais avec les chaînes alkyles fondues. Figure 12: Structure moléculaire proposée de la forme III Lam: projection selon l'axe c. Chapitre III: Polymorphisme du NDI2 IV. Modélisation de la structure de la forme II HexCol IV.1. Construction d'un modèle en hélice supramoléculaire La DRX sur poudre obtenue pour la forme II HexCol indique une mésophase colonnaire, avec une distance entre les colonnes de 26 Å (Figure 4b). Il est impossible de fournir plus d'informations sur l'assemblage moléculaire si ce n'est une possible répétition intra-colonnaire à 4.2 Å correspondant au pic à 21.2° (Figure 4b). C'est pour cela que des films minces orientés de cette forme ont été préparés sur PTFE orienté et leur structure analysée par diffraction électronique. Après fusion puis recristallisation, des aiguilles orientées de la forme II HexCol sont obtenues sur le PTFE. La Figure 13a présente un cliché de diffraction électronique typique de ces aiguilles orientées. Figure 13: a) Cliché de diffraction électronique de la forme II HexCol du NDI2 et b) cliché schématique. Chapitre III: Polymorphisme du NDI2 Tout d'abord, ces clichés indiquent un remarquable niveau d'organisation qui n'aurait pas pu être déduit du diffractogramme sur poudre. Ces clichés sont constitués d'un ensemble de strates sur lesquelles des réflexions sont localisées. Ces strates sont perpendiculaires au grand axe des aiguilles de la forme II HexCol. De plus, des réflexions fortes sont observées sur la 1 ère, 5ème, 6ème et 7ème strates (voir la figure schématique Figure 13b). La première réflexion méridionale est localisée sur la 6ème strate. Ceci indique que les molécules de NDI2 s'assemblent en hélices supramoléculaires. Plus spécifiquement, elles s'organisent en structure hélicoïdale 61 avec l'axe de l'hélice parallèle à la direction des chaînes de PTFE. En effet, le cliché de diffraction d'une hélice 61 est composé de réflexions qui sont localisées sur les strates d'ordre l où l est défini comme l = 6m ± n avec m et n entiers24. Le pas de l'hélice entre molécules de NDI2 est à 3.6 Å (p) et la première strate nous donne la valeur de la longue distance de l'hélice à 21.6 Å (P). Ceci veut dire que chaque couche successive de molécules de NDI2 dans les hélices tourne de 60° (= 360°/6) le long de l'axe de l'hélice. Sur le plan équatorial des clichés de diffraction électronique (Figure 13a), on retrouve la distance entre ces hélices de 26 Å. D'autres molécules à base de rylène, comme le pérylène bisimide forment des assemblages hélicoïdaux; cela a été démontré par des mesures de dichroïsme circulaire25. Mais très peu d'études structurales ont été entreprises pour essayer de soudre la structure de tels assemblages supramoléculaires aussi complexes. Récemment, un dérivé PBI similaire au NDI2 a montré la formation d'hélices 211.15 La structure de ce composé sera présentée en détails plus loin dans ce paragraphe. Le cliché de diffraction électronique présenté Figure 13a montre aussi que les réflexions sur les 5ème, 6ème et 7ème strates sont allongées dans la direction perpendiculaire à l'axe de l'hélice. Cet allongement est la conséquence d'un désordre entre hélices adjacentes, en accord avec le caractère liquide cristallin de la forme II HexCol. La MET en haute résolution (HRTEM) apporte des informations supplémentaires pour construire le modèle de l'assemblage en hélice. La Figure 14 présente des franges régulières observées par HRTEM quand le film subit une rotation de ± 30° le long de l'axe de l'hélice. 169 Chapitre III: Polymorphisme du NDI2 Figure 14: Image obtenue en haute résolution MET de la forme II HexCol du NDI2. La périodicité des franges dans l'image HRTEM (Figure 14) est de 26 Å. Elle est identique à la période entre les colonnes obtenues par DRX et par les clichés de diffraction. Cette expérience de rotation a aussi été menée en diffraction électronique (Figure 15 ci-dessous). Les seuls changements visibles sur les clichés de diffraction en fonction de l'angle d'inclinaison imposé se situent au niveau de l'équateur. En effet, l'intensité de la réflexion à 26 Å varie en fonction de l'angle d'inclinaison (Figure 15a à d) avec un maximum d'intensité entre 20° et 30° (Figure 15 à droite) Figure 15: a) à d) clichés de diffraction obtenus par expérience en rotation tilt (0° à 40°) selon l'axe de l'hélice et intensité du signal équatorial selon l'angle d'inclinaison (droite). Chapitre III: Polymorphisme du NDI2 Le fait que la rotation selon l'axe de l'hélice est nécessaire pour observer les images en HRTEM et le maximum d'intensité de la raie à 26 Å sur les clichés de diffraction électronique démontre que les hélices sont assemblées dans une maille hexagonale ou pseudo-hexagonale. Pour rendre compte des clichés de diffraction (Figure 13), nous pouvons choisir soit une maille trigonale avec a = b = 58 Å, c = 21.6 Å et γ = 120° (α = β = 90°), soit une maille rectangle qui donne lieu à un empilement pseudo-hexagonal avec a = 36 Å, b = 52 Å et c = 21.6 Å (α = β = γ = 90°). La maille trigonale contient trois hélices alors que la maille rectangle n'en contient que deux. Que ce soit dans la maille trigonale ou rectangle, si on y inclut des hélices 61 formées d'un seul brin de molécules NDI2 empilées de manière similaire aux hélices de PBI et de quaterthiophènes de Frauenrath et al.25, les densités cristallines sont trop faibles, de l'ordre de 0.63 g/cm3. Pour cette raison, nous proposons des hélices constituées d'un empilement hélicoïdal de dimères i.e. des hélices formées par l'association de deux "brins" de molécules empilées en hélice (Figure 16). La densité cristalline devient alors 1.26 g/cm3. Figure 16: Modèle en hélice du NDI2 avec une rotation de 60° entre chaque pas de l'hélice. Cette organisation est aussi en accord avec les structures de composés analogues à base de pérylène bisimide étudiés par Percec et al.26,27. En effet, ces analogues de PBI sans amides forment des composés colonnaires tels que les coeurs de PBI sont associés côte-à-côte, puis s'empilent selon une colonne. Nous proposons que les molécules de NDI2 forment des "dimères" liées par liaisons hydrogène tel que représenté sur la Figure 17. Chapitre III: Polymorphisme du NDI2 Figure 17: Liaisons hydrogène intra-dimère dans la structure en hélice. En effet, en ajustant la conformation de l'espaceur flexible, on peut créer des liaisons hydrogène intra-dimère entre les groupements amides des deux molécules du dimère. La conséquence est que les liaisons hydrogène entre groupement amides ne se font pas entre les couches de dimères tournées de 60° selon l'axe de l'hélice. Ceci est aussi cohérent avec le fait que la périodicité d'empilement des molécules de NDI2 n'est pas typique des autres phases observées (proche de 4.8 - 4.9 Å). On observe plutôt une périodicité typique de l'empilement de type π-stacking entre coeurs NDI28 (p = 3.6 Å), et ce, malgré l'absence de caractéristiques typiques de π-stacking dans le spectre UV-Visible de cette forme. La formation de ces liaisons hydrogène dans le dimère implique qu'une partie des amides ne sont pas liés. Ainsi, on peut expliquer que le spectre FTIR montre une bande Amide A pratiquement pas liée à 3409 cm-1. Pour les amides liés, on peut s'imaginer deux populations de liaisons hydrogène non équivalentes ce qui expliquerait les deux populations de liaisons hydrogène faibles dans les spectres FTIR à 3334 et 3357 cm-1. Ainsi, à partir de ces dimères de NDI, nous avons construit des hélices 61 par modélisation avec le programme Cerius2 et avons calculé leurs clichés de diffraction électronique pour les mailles trigonale (Figure 18, Modèle 2) et rectangle (Figure 18, Modèle 1). Chapitre III: Polymorphisme du NDI2 Figure 18: Proposition d'empilement moléculaire pour la forme II HexCol du NDI2 avec les clichés de diffraction électronique simulés correspondants. A gauche la maille rectangulaire, à droite la trigonale. Afin de calculer des clichés approchant au mieux le cliché expérimental, nous avons été amenés à réaliser plusieurs ajustements. Dans un premier temps, nous avons constaté que les barycentres des dimères dans les couches de l'hélice ne peuvent pas être localisés sur l'axe de l'hélice. En effet, si tel est le cas, nous ne pouvons pas reproduire les intensités importantes dans la 1 ère, 5ème et 7ème strate du cliché de diffraction et l'intensité de la réflexion 006 devient trop importante. Nous avons donc cherché à déterminer quel rayon de l'hélice permet au mieux de rendre compte du cliché de diffraction. Il semble qu'un ex-centrage de 1.5 - 2.0 Å rend mieux compte des clichés de diffraction expérimentaux. L'ex-centrage de l'hélice combiné à la rotation d'une . Ceci e du spectre ' bsorption UV-Visible de cette phase qui ne montre pas 'interaction π-π forte entre coeurs NDI ou entre coeur NDI et groupement phényle, contrairement aux phases IV Cr et III Lam du NDI2. Pour la phase trigonale du NDI2 (Figure 18, Modèle 1), nous avons cherché à savoir si elle correspondait à une phase dite "frustrée" telle qu'observée précédemment pour un analogue, le PBIC10 (Figure 19)15. Figure 19: Proposition d'empilement moléculaire pour la forme II du PBIC10 avec le cliché de diffraction électronique simulé correspondant.
3,794
tel-03956047-these_Berson.txt_50
French-Science-Pile
Open Science
Various open science
2,023
Les élites municipales d’Angers de 1475 à 1522. Histoire. Université d'Angers, 2020. Français. &#x27E8;NNT : 2020ANGE0076&#x27E9;. &#x27E8;tel-03956047&#x27E9;
None
French
Spoken
7,774
13,035
7 Voir la notice de l’Inventaire des Pays de la Loire du manoir des Tourelles puis l’Hôtel des Tourelles, puis hôtel Crespin et enfin Mont-de-Piété par Dominique Lespinose-Letellier et Olivier Biguet, [consultée en ligne]. 138 sont attachées plusieurs métairies notamment celle de La Poitevinière1. De son père, qui le tenait lui-même de sa mère, Perrine Cymier, Vincent Crespin hérite de la moitié du lieu et appartenances du Bois-Rou à Saint-Clément-de-la-Place, l’autre moitié revenant à son frère Jean2. Vincent Crespin achète en 1486 à Pierre de Lymele, la métairie de La Maussionnière à Saint-Augustin-des-Bois3. La famille possède également une closerie à Aigrefoin qui revient à Vincent4. Enfin, Vincent Crespin a une closerie appelée les Novelles à Belligan, à SainteGemmes-sur-Loire, avec 27 quartiers de vignes que ses descendants, son fils François et sa fille Jeanne dame de Putilles, épouse de Robert de Chazé, développent. Pierre Crespin, sieur de La Chabosselaye, fils de François, revend en 1593 à Laurent Davy, un grand domaine doté d’un très beau manoir5. Vincent Crespin possède aussi par indivis avec Joachim Gelé, seigneur de La Ronde le très beau manoir de Montriou à Feneu6. La famille Crespin a développé un patrimoine déjà important à l’époque des grands-parents de Vincent Crespin. Les partages successifs ont attribué à chacun une part mais ils ont su développer et agrandir à chaque génération leurs possessions. Jean, oncle paternel de Vincent a également transmis un patrimoine à ses enfants qui se sont développé par la suite notamment grâce à Nicolas puis son fils Vincent le jeune, sieur du 7- La famille Crespin fait partie de la Confrérie Saint-Nicolas d’Angers, dite des Bourgeois d’Angers. Les lacunes documentaires ne nous permettent pas d’être affirmative pour les aînés de la famille, mais à compter de 1500, sont confrères Guillaume, reçu en 1506, fils de Vincent et Vincent le jeune reçu en 1530, alors greffier des privilèges de l’Université, fils de Nicolas Crespin7. 8- Olivier Crespin, fils de Vincent, est clerc, chapelain de la chapellenie de Mesnil, fondée par Perrine Cymier et desservie en l’église de Saint-Maurice d’Angers8. 9- Vincent Crespin est décédé en février 1516 et inhumé en l’église de la Trinité d’Angers. 1 ADML, 5 E 5/506, acte du 14 avril 1508. ADML, 5 E 2/151, acte postérieur à 1495. 3 ADML, E 2157, acte du 17 octobre 1486. 4 ADML, 1 Hs E 62 comptes des cens de l’hôpital de 1482-1485. 5 Entre ville et campagne, demeures du roi René en Anjou, collection Images du Patrimoine, éditions 303, 2008, p. 56-59. 6 Ibid., p. 62-63 et ADML, E 2157, acte du 16 juillet 1507. : Isabeau de Pincé, son épouse et Joachim Gelé ont le droit de patronage du chapelain de la chapelle du manoir, héritage de Jeanne des Aulnaies, dame de Montriou, mère d’Isabeau et de la femme de Joachim Gelé. 7 BMA, ms. 767 (686), Cartulaire de la confrérie Saint-Nicolas. 8 ADML, E 2157, acte du 14 août 1502. 2 139 10- Vincent Crespin est sieur du Gast et du Venton. Ses armes sont : « d’azur au chevron d’or accompagné de trois pommes de pin versées de même ». ADML, Famille Crespin Robin Aubour ∞ Agnès Daniel Crespin, sieur du Gast et de Tourelles Louis Aubour ∞ Macé Crespin (cm en 1418) Jeanne Crespin ∞ Jean Breslay († 1472), sieur de la Chupinière, juge ordinaire d’Anjou Jean Aubour Vincent Crespin († 1451) ∞ Colin Cymier († av. 1434) ∞ Perrine Cymier Guillaume Crespin († av. 1477) ∞ Jeanne Pouillet Vincent Crespin († 1516), sieur du Gast et du Venton (35) ∞ Isabeau de Pincé, fille de Mathurin de Pincé (97) et de Jeanne des Aulnaies Guillaume Crespin, élu (34) Pierre Crespin, chanoine de NotreDame de Paris Olivier Crespin clerc Jeanne Crespin ∞ Robert de Chazé, fils de Jean de Chazé, sgr de Chazé-Henry et d’Isabeau de la Jaille Jeanne Crespin ∞ Jean Chenu, sgr d’Averton, de Putilles et prince d’Yvetot François Crespin († 1560) sgr du Gast, des Loges et de Baracé, conseiller au Parlement de Paris et président du Parlement de Bretagne ∞ Marie Poncher Isabeau Chenu, princesse d’Yvetot ∞ Martin Du Bellay († 1559), gouverneur de Normandie René Crespin, sgr du Gast, des Loges et de Baracé, président de la Chambre des comptes de Paris, conseiller au Parlement de Bretagne ∞ Marie de Baillon 141 Jacquet Guilloys († av. 1453), parent de Simon Sabart (115) Marguerite Guilloys Jeanne Cymier ∞ René Moreau Perrine Cymier ∞ Jean Dupré, fils de Simon Dupré Jean Crespin, sieur du Venton Nicolas Crespin ∞ Marie Baudet Vincent Crespin, sieur de Venton ∞ Guyonne Richaudeau, fille de Jean Richaudeau (112) Jean Crespin, sgr de l’Orcheraie et du Venton († 1598) ∞ François Lefrère Jacqueline Crespin ∞ François de Cormeilles Jeanne Crespin Jeanne Crespin ∞ Thomas Charpentier, sieur de l’ u (27) Jacques Callon (1535-?) Olive Crespin († apr. 1541) ∞ Guy Ferrand († 1517) Guérine Crespin ∞ 1) François Boivin 2) n h Pierre Coueme, sieur de Guynefolle Jean Callon (1536-?) Pierre Crespin, († 1594) sgr de la Chabocelaie, conseiller au Parlement de Bretagne ∞ 1° Marguerite de Baglioni, 2° Françoise Fourasteau Renée Ferrand († apr. 1563) ∞ François Callon, président du Parlement de Bretagne († 1569) Renée Callon (1537-?) ∞ Raoul Chalopin (26) < > Callon (1539-?) René Callon (1543-?) N° 36 DELAUNAY Jean Dates: 1475-1493 1- Les Delaunay sont nombreux à Angers en cette fin du Moyen Âge. Rien ne permet de les distinguer ni de suivre une filiation. 2- Sa femme se prénomme Françoise1. 3- Jean Delaunay a au moins une fille car il est aidé dans sa charge de connétable par son gendre Jean Berroys2. Dans l’environnement de la mairie, un certain François Delaunay, sieur de la Porte est marié avec Béatrice Grimaudet, fille de Raoullet Grimaudet (50). Sans vouloir trouver de façon systématique des unions au sein du groupe échevinal, la piste d’un fils de Jean Delaunay est plausible3. 5- Échevin en 1475, il le reste jusqu’à sa mort en mai 1493. Il apparaît dans les sources municipales surtout comme connétable, office qu’il remplit de 1480 jusqu’à sa mort4. Il est Pourcentages remplacé comme échevin et comme connétable par Jean Hellouyn (56)5. 70 60 50 40 30 20 10 0 % Assiduité Périodes 6- Il est vraisemblable que Jean Delaunay vit dans la Doutre. C’est là qu’il y a le plus de Delaunay entre la fin du XIVe siècle et la première moitié du XVIe siècle6. De surcroît, les 1 BMA, ms 1145 (942), pièce n° 9 du 27 mai 1493. AMA, BB 2, f° 62v° : le 14 janvier 1485, gravement malade, Jean Delaunay est remplacé par son gendre et Jean Sabart. BB 7, f° 19v°, le 14 septembre 1489, Pierre Berroys, son gendre, réclame une indemnité de 100 sous pour l’avoir aidé dans son office. 3 ADML, 5 E 121/1080, le 30 décembre 1515, acte de partage de la succession de Raoullet Grimaudet et de sa femme Yvonne Guyet. 4 AMA, BB 1 f° 34, le 6 mars 1480, Jean Delaunay est institué connétable de la porte Saint-Nicolas. 5 AMA, BB 8 f° 58, le 31 mai 1493, Jean Hellouyn, marchand est institué nouvel échevin et prend la charge de connétable de Saint-Nicolas. 6 Voir les censiers du Roncera et de Saint-Jean-l’Évangéliste. 2 142 connétables des portes de la ville sont quasiment tous habitants du quartier où se situe la porte dont ils ont la charge. La porte Saint-Nicolas est une des portes de la Doutre. Enfin, une famille Berroys, sans doute celle du gendre de Jean Delaunay vit également dans la paroisse de la Trinité, outre les ponts1. 9- Jean Delaunay meurt en mai 1493. AMA, BB 7, f° 43 : le 13 mai 1490, il reconnaît avoir reçu des arbalètes pour la défense de la ville. 11- Tous les actes rencontrés concernant Jean Delaunay, sont signé par Jean Mireleau, notaire des contrats royaux, suivi de la mention à la requête dudit Delaunay. Jean Delaunay savait-il écrire? Cela serait cependant étonnant, eu égard aux responsabilités qui lui sont confiées, comme celles de connétable. Par contre, nous savons qu’il a été très malade, peut-être était-il dans l’incapacité d’écrire suite à une maladie? 1 Myriam Combe, p. 167 et p . 243 : rue Lionnaise, il y a la maison de la femme et des héritiers de feu Jean Berroys. Des Delaunay vivent rue Lionnaise, près de l’église de la Trinité. Date s : 1475-1484 1- Dès la fin du XIVe siècle, nous rencontrons des du Breil (ou du Breuil) dans l’entourage des ducs d’Anjou et à la Chambre des Comptes avec notamment Denis du Breil, secrétaire du duc d’Anjou, mais rien ne les rattache en l’état actuel des recherches à la famille de Jean du Breil, sieur de Dangé, conseiller échevin en 1475. Par contre, dès 1396, nous trouvons un Étienne du Breil, portier et garde de la porte Saint-Michel1, qui pourrait être de la même famille, hypothèse qui a le mérite d’ avoir une certaine cohérence. 3- Jean du Breil a eu au moins trois enfants : Jean, greffier à la mairie, mariée à Helye Bradasne, fille de Pierre Brasdane, greffier avant Jean du Breil. Jeanne du Breil est mariée à René Colin ; ils sont les parents de Germain Colin Bucher, poète et ami de Clément Marot. Enfin Marie du Breil, leur sœur, est mariée à Pierre Le Roy ; ces derniers ont eu deux enfants : Thibault et Isabeau. En 1514, le couple du Breil/le Roy est décédé et leurs biens sont partagés entre leurs deux enfants. Isabeau avait épousé Guy Fromont, sieur de la Roche à Tiercé2. Au XVIe siècle, des du Breil sont ouvriers et procureurs de la Monnaie d’Angers. 5- Selon un manuscrit du XVIIIe siècle, Jean du Breil, conseiller échevin, est dit maître des requêtes ordinaires du roi en 1464 et lieutenant général des marchands de France3. Il fait partie de la première mairie en 1475 en tant que conseiller échevin. Il n’a laissé aucune trace de son passage à la mairie dans les registres. Son fils, Jean, préside les audiences du Plessisaux-Nonnains en 1505 pour Ligier Buscher, échevin4. Sa famille continue d’œuvrer au sein de l’équipe municipale mais en tant que greffiers, charge qui est transmise de père en fils au moins jusqu’en 15705. 6- Jean du Breil est sieur de Dangé au moins en 1484, qui relève à foi simple de SaintGermain-sous-Daumeray. Cette terre est située dans la paroisse d’Étriché. Le domaine et métairie sont assortis de plusieurs moulins. En 1539, l’ensemble appartient par indivis à Hardouin Colin, fils de René Colin et de Jeanne du Breil et à Vincent du Breil, greffier de la 1 AMA, 3, f° 51 et f° 177v°. ADML, 5 E 5/507, acte de partage de leurs biens du 20 avril 1514. 3 BMA, ms. 1120 (919), f° 323. 4 Isabelle Mathieu , p . 91. 5 André Sarazin, p. 343 : Jean du Breil, seigneur de Beloeil, greffier de la ville, teste le 25 octobre 1570. 2 145 mairie. Ce dernier, par sa femme Blanche Alexandre, possède le domaine de Belœil à SainteGemmes-sur-Loire1. 7- Dans les sources de la confrérie de Saint-Nicolas, dite des Bourgeois d’Angers, sont cités comme frères Jean du Breil reçu en 1503 et Vincent reçu en 15392. 9- Jean du Breil est décédé avant 15023. 1 André Sarazin p. 343, et Joseph Denais, Préface de Un émule de Clément Marot. Les poésies de Germain Colin Bucher, angevin, Paris, 1890, p. 1 à 14. 2 BMA, ms. 767 (686), Cartulaire de la confrérie Saint-Nicolas. 3 Joseph Denais, Préface de Un émule..., op. cit. , p . 11, précise que René Colin recueille, « avec sa belle-sœur, Marie du Breil, épouse de Pierre Le Roy, et son beau-frère maître Jean du Breil, la terre de Dangé, par le fait de sa femme, Jeanne du Breil, le 1er décembre 1502, en héritage de maître Jean du Breil ». 146 Famille Du Breil Jean Du Breil († 1502), sieur de Dangé (37) Hélie Bradasne ∞ fille de Pierre Bradasne († 1507), greffier de la mairie Jean Du Breil († 1539) greffier de la mairie Marie Du Breil († av. 1514) ∞ Pierre Le Roy († av. 1514) Thibault Le Roy Vincent Du Breil, greffier de la mairie ∞ Blanche Alexandre, fille de Lancelot Alexandre, marchand libraire, garde de la Monnaie et receveur des deniers communs de la ville Jean Du Breil, sieur de Beloeil Phelippe Du Breil ∞ Roland Bodin, sieur de Lormoys, substitut du procureur de la Monnaie, fils de Jean Bodin et d’Isabeau Perrin Jeanne Du Breil ∞ Jacques Colasseau, sieur du Ceriçay, avocat Jean Colasseau, sieur du Griffay, avocat, échevin en 1599 ∞ 1° Raouline avril 2° Marie Haran 147 Isabeau Le Roy ∞ Guy Fromont, sieur de la Roche (Tiercé) Jeanne Du Breil ∞ 1° René Colin 2° Louis Bodin Germain Colin Buscher, poète Hardouin Colin, avocat ∞ Jacquette Bourgeois Louis Du Breil, sieur des Fourneaux et de la Forestrie ∞ Jacquine de Blavou Hilaire Colasseau, sieur du Griffay, avocat ∞ Perrine Prioulleau Marie Du Breil ∞ Nicolas Savary, sieur de Mecorbon (Maine) Catherine Colin 148 CHA Dates : 1475-1487 1- Jean du Chasteau est le fils de Jean du Chasteau. Il a un frère, Jean du Chasteau le Jeune1. 2- Jean du Chasteau est marié à Jeanne de La Barre, dame du Coudray. Une fois veuve, Jeanne se remarie avec Anceau Raineau, sieur de la Chotardière, recteur de l’Université d’Angers de 1494 à 1515. Jeanne a comme successeurs, entre autres, deux frères de La Barre prénommés Christophe, ’un curé de Brissarthe, l’autre sieur de La Martinière2. 3- Le couple a au moins deux filles. Olive, mariée à Pierre Gallisson, a un fils, Jean Gallisson, avocat3, qui épouse Jeanne de Blavou4. Olive et son mari ont également deux filles : Isabeau épouse René Landevy, sieur de la Perrière, fils de Jean Landevy (61) et Jeanne, mariée à Olivier Darien, licencié en lois5. Marie du Chasteau, leur seconde fille, épouse Anceau Gerbeu, sieur de la Fourerie-Boileau à Brain-sur-l’Authion6. 4- Jean du Chasteau est licencié en lois, avocat en la Sénéchaussée. 5- À compter de 1460, il est lieutenant du Conservatoire d’Anjou 7. Il est membre du conseil des bourgeois en 1462, composé de six membres. Entre 1449 et 1467, il est sénéchal de BoisBillé8, mais remplacé en 1460 comme président de séance par Jean Brasdane. Jean du Chasteau est également sénéchal à Brain-sur-l’Authion entre 1450 et 14679. En 1505 et 1515, le sénéchal est Anceau Raineau, marié avec Jeanne de La Barre, veuve de Jean du Chasteau. Nommé conseiller en 1475, il le reste jusqu’à sa mort. Enfin, il est procureur d’Anjou en 1485. Échevin pendant douze ans, il n’assiste qu’à peu de conseils (moins du tiers). Il participe à plusieurs voyages auprès du roi10, et à une réunion chez le gouverneur pour « pacifier le fait de la mairie avec les gens de l'Église et les officiers du roi »11. Son ancienneté et ses offices dans la vie publique de la ville doivent jouer en sa faveur pour mener à bien ces 1 Myriam Combe, p. 164. ADML, 5 E 121/1091 le 27 février 1522, les deux frères vendent leur part de la succession de Jeanne de La Barre à Hervé de Pincé Lancelotte de Jonchères sa femme. 3 Gontard de Launay, Les avocats. p. 36. 4 ADML, 5 E 5, partage de sa succession du 27 janvier 1529. 5 ADML, E 2558, dossier Galisson : acte du partage des biens de défunts Jean Gallisson et Olive du Chasteau daté du 1er janvier 1529. 6 André Sarazin, tome 2, p. 33. 7 BMA, ms. 1120 ( 919). 8 Isabelle Mathieu, p. 10. 9 Ibid., p. 16. 10 AMA, BB 1, f° 5, f° 73 et f° 79v° pour l’année 1479. 11 AMA, BB 3, f° 41 le 8 août 1485. 2 149 missions de représentation. Bien implanté dans sa paroisse de la Trinité, il est chargé de veiller à la sécurité de son quartier1. 6- La famille du Chasteau possède plusieurs maisons dans la Doutre. Rue de la Petite Arche, Jean du Chasteau l’aîné avait une maison avec un four « à cuire le pain », au coin de la rue de la Tannerie. Rue Lionnaise, Jean du Chasteau, échevin, possède deux maisons dont l’une appartenait déjà à son père. Enfin, ce dernier possédait une maison rue de la Cuaterie, sans doute vendue à Maurice Le Normant, ciergier2. Jean du Chasteau rend aveu en 1446 et 1458 pour le fief avec métairie du Grand-Azé en la paroisse de Saint-Georges-du-Bois, tenu à foi et hommage simple de Fontaine-Milon3. En 1506, c’est Pierre Gallisson, mari d’Olive du Chasteau, qui rend l’aveu. Jean du Chasteau possède également le lieu et métairie de La Fourerie-Boileau, transmise à sa fille Marie4. 7- En 1472, la veuve de Jean du Chasteau est reçue dans la confrérie Saint-Nicolas, dite des Bourgeois d’Angers ; il s’agit de la mère du conseiller. Nul doute que les Jean du Chasteau, père et fils, sont également confrères mais compte des lacunes documentaires pour le dernier tiers du XVe siècle, nous n’en avons pas de mention explicite5. 9- Jean du Chasteau décède le mercredi 28 mars 1487 d’un flux de sang6. 11- Pierre Jarry est clerc de Jean du Chasteau7. Il est le gendre de Guillaume du Perray, hôtelier de l’hôtellerie de l’image Saint-Michel8. 1 AMA, BB 2 f° 17v°, le 28 mai 1484, il visite le chantier de pavage à faire aux portes Saint-Nicolas et Lionnaise. BB 4, 12 juin 1486 et 31 décembre 1486, il assure lui-même la garde de la porte Lionnaise en gardant les clés que lui a confiées le conseil. 5 Myriam Combe, p. 208-209. 3 Célestin Port, t. 1, p. 182. 4 André Sarazin, t. 2, p. 33. 5 BMA, ms 760 (682), f° 43, “papiers de la confrérie Saint-Nicolas”. 6 AMA, BB 4, f° 77. 7 AMA, CC 6, f° 2v°. 8 AMA, BB 2, f°13v°. 150 N° 39 DU FAY Barthélemy Dates: 1511-1524 1-Barthélemy du Fay est le fils de Pierre du Fay (40). Il est de la même génération que Philippe du Fay, avocat, praticien en cour laye, sieur de La Baronnerie. 2- Barthélemy du Fay est marié à Marie Buscher, fille de Ligier Buscher, (20). 3- Ils ont au moins quatre enfants : Clémence est l’épouse de François Lasnier, fils de Jean Lasnier (63), Baudouin est échevin en 1524, Françoise épouse Robert de Pincé (100) et Mathurin, clerc. 4- Barthélemy du Fay est licencié en lois. Il a fait ses études à l’Université d’Angers1. 5- Dès 1495, Barthélemy du Fay préside des assises à Sceaux pour son beau-père, Ligier Buscher, sénéchal et ce, jusqu’en 15022. Il est également sénéchal du Plessis-aux-Nonnains, durant plusieurs années, entre 1507 et15213. Il est élu échevin le 28 novembre 1511 à la mort de Pierre de Pincé (99). Un dénommé Guillaume Le Conte s’est présenté avec des lettres de recommandations du général de Beaune priant le conseil de l’élire échevin. Le conseil a admis que Guillaume Le Conte est homme de bien et bon marchand, mais leur choix s’est porté sur Barthélemy du Fay4. Peu assidu, ce dernier a participé à quelques missions de suivi et de contrôle de chantiers de réparations en ville, notamment en 1512 5. En 1518, il est dit officier de l’évêque d’Angers en ses châtellenies de Saint-Alman et de Saint-Maurille d’Esme6. Il est encore échevin quand notre étude se termine. Son fils Baudouin est élu échevin en juin 1524, peut-être à la place de son père7. 1 ADML, E 2333, acte du 12 février 1496, Barthélemy est dit écolier étudiant en ladite Université. Isabelle Mathieu, p. 112. 3 Ibid., p. 91. 4 AMA, BB 15, f° 55r°-v°. 5 AMA, BB 15, f° 61v°, f° 88. 6 AMA, BB 17, f° 26, en décembre 1518, le conseil est interpellé sur des soupçons de malversations de l’évêque d’Angers, plusieurs membres du conseil sont dits familiers de l’évêque et il leur est demandé de sortir lors des débats. 7 A. Sarazin, tome 2, p. 140 : il est fort probable qu’il décède en 1524, année où son fils prend le titre de sieur du Jau. 2 151 Pourcentage 40 30 20 % Assiduité 10 0 1511/1514 1514/1518 1518/1522 Périodes 6- Barthélemy du Fay est paroissien de Saint-Maurice. Avec sa femme, Marie Buscher, ils vivent rue de la Mercerie, dans une maison qu’ils tiennent du père de sa femme1. Il a hérité de la maison de Pierre du Fay dans la Doutre, entre la maison des Filles-Dieu et la rue de la Folie. En 1492, il baille à rente cette maison, composée de trois corps de maison2. En échange de cette rente, Barthélemy du Fay prend une rente sur une maison rue Brécigny. En 1496, son débiteur ne pouvant payer son dû, Barthélemy met la main sur cette maison et sur des pièces de terres et de vignes3. Sieur du Jau, Barthélemy possède la seigneurie du Jau, terre noble avec château. Elle forme le siège de la seigneurie d’Érigné. Barthélemy est aussi sieur de Granville4. 7- Sans en être sûre, Barthélemy du Fay fait sans doute partie de la confrérie Saint-Nicolas comme Pierre avant lui et comme Baudouin son fils, reçu en 15205. Barthélemy du Fay a marié ses filles avec des échevins, Clémence épouse François Lasnier et Françoise Robert de Pincé (100)6. La famille Du Fay semble avoir des liens avec Germain Colin Buscher qui dédie à Barthélemy et à son fils Baudouin des poèmes7 8- Son fils, Mathurin est chapelain8. ADML, 1 Hs B 206 censier de 1493 et 1 Hs E 67 comptes des cens de l’hôpital pour 1522-1532. ADML, E 333, acte du 3 avril 1492. 3 ADML, E 333, acte du 10 février 1496. 4 A. Sarasin, t. 2, p. 140 : l’auteur parle de Granville près d’Etampes. 5 BMA, ms. 767 (686) cartulaire la confrérie Saint-Nicolas. 6 ADML, 5 E 8/9 : contrat de mariage du 30 août 1519. Sont témoins François Binel, Jean de Pincé, Mathurin de Pincé, Jean Binel et Nicole Guyot tous de familles de la mairie. 7 Joseph Denais, Germain Colin-Buscher, Angevin, secrétaire du grand maître de Malte : un émule de Clément Marot, Paris, 1890, p. 98, 192, 239. 8 BMA, ms. 833 (749) censier de l’abbaye Saint-Aubin de 1539 : à Bouchemaine, il tient les vignes de la chapellenie Sainte-Anne, desservie en l’église de la Trinité. 9- Barthélemy décède probablement en 1524. Sa femme, Marie Buscher est décédée avant le mois d’août 1519, date du mariage de leur fille Françoise. Le couple fonde en 1509, une chapellenie en l’église Saint-Laurent en l’honneur de Dieu et Notre-Dame de Pitié, de saint Jean Baptiste, Saint Jean l’Évangéliste et de Saint Jacques. Ils allouent à la chapellenie une maison en la paroisse de la Trinité, plusieurs rentes et des vignes. Ils donnent enfin, un calice, un missel et différents ornements pour faire le service qui consiste notamment en deux messes par semaine1. ADML, 5 E 5/508, signature du 16 janvier 1517. 1 ADML, E 2333, acte de fondation du 8 février 1509. 153 DU FAY Pierre Dates : 1475-1479 1- La famille du Fay est angevine depuis un bon siècle quand Pierre du Fay est élu à la mairie d’Angers. Colin du Fay apparaît dans les sources de la confrérie Saint-Nicolas en 13601. Thomas du Fay est substitut du procureur du roi au moins en 13982. Il faut mentionner également un Pierre du Fay secrétaire du roi de Sicile, mort en 14093. Enfin Pierre du Fay est le neveu de Jean du Ver , bourgeois d’Angers4. 3- Pierre du Fay a au moins une fille, Olive, mariée à Nicolle Daudier, avocat en cour laye. Barthélemy du Fay (39) est son fils, comme sans doute Philippe du Fay, sieur de La Baronnerie, avocat, de la même génération que Barthélemy5. 5- Pierre du Fay est marchand et apparaît pour la première fois dans les sources en 1446 comme receveur général de la boite des marchands fréquentant la rivière de Loire. Les marchands de Loire prenaient chaque année 300 livres sur les revenus de la Cloison pour leur pension6. Le receveur de la boite gérait ce fonds. Il reste receveur jusqu’à sa mort. À ce titre, il assiste à plusieurs des assemblées de ces marchands, souvent réunis à Orléans. Chaque ville concernée par la circulation de marchandises sur la Loire envoie des représentants. Par exemple, le 12 mai 1474, ce sont Jean Barrault (5), Pierre du Fay, Guillaume Le Roy (84) et Pierre Thévin (121) qui se rendent à l’assemblée7. En 1457, Pierre du Fay fait un voyage à Gannat en Bourbonnais (dans l’Allier) avec Jean du Verger dans le but de voir le roi pour les affaires de l’Anjou8. Peu après c’est à Paris qu’il se rend auprès du roi avec plusieurs bourgeois de la ville, tous futurs échevins (Jean Barrault, Pierre Thévin et le docteur Jean Binel (14)9. Il est nommé commissaire aux réparations, fortifications et emparements avec 1 BMA, ms. 760 (682), papiers de la confrérie Saint-Nicolas, f°1 v°. AN, P 13344, f° 19v°, f° 20r°-v°, janvier 1397. 3 Bruneau de Tartifume, tome 2, p. 37 : son épitaphe le donne mort en septembre 1409, à l’âge de 28 ans. 4 ADML, G 1783, f° 1, cité par Myriam Combe p. 128 : le 6 novembre 1466, honorable Pierre du Fay fait don aux chanoines, curés et chapelains de la Trinité d’une « courtillerie ou borderie appelée la Marne » dont il avait hérité de son oncle feu Jean du Verger, bourgeois d’Angers. 5 Gontard, Les Avocats. p. 8. BMA, ms. 770 (689), cens de Saint-Martin, f°151v° : Il vit rue Sauneresse en 1492, paroisse Saint-Maurille. 6 AMA, CC 4, f° 45. 7 P. M. Mantellier, « Histoire de la communauté des marchands fréquentant la rivière de Loire et fleuves descendant en icelle », dans Mémoires de la société archéologique de l’Orléanais, tome 8, 1864, p. 3. 7 AMA, CC 4, f° 176 v°. 8 AMA, CC 4, f° 176 v°. 9 AMA, CC 4, f° 211 v°. 2 155 Laurent Cochon pour l’exercice 1457-1458, avec un budget de 2 500 livres 1. À compter de 1475, Pierre du Fay est connétable de la porte Saint-Nicolas2. Il est élu échevin à la création de la mairie en 1475 et le reste jusqu’à sa mort en novembre 14793. 6- Pierre du Fay possède plusieurs maisons dans la Doutre, rue Notre-Dame et rue de la Folie près de la Maine4, cette dernière était auparavant à Thomas du Fay5. Pierre possède aussi une closerie en périphérie de la ville, à la Croix Pelet, près de La Barre, voisine de la closerie de Geffroy Touchart (123)6. 7- Pierre du Fay fait partie de la Confrérie Saint-Nicolas au moins depuis 14677. AMA, CC 4, f°184, signature de 1457. 1 AMA, CC 4, f° 183. AMA, CC 5, f° 34 : ses gages sont de 75 livres pour 3 ans. 3 AMA, BB 1, f° 3. 4 ADML, 1 Hs E 57, comptes des cens de l’hôpital de 1460-1462, et E 58 de 1462-1464. 5 ADML, 1 Hs B 206, censier de 1493. 6 AMA, CC 4, f° 110r°-v° : le quartier est pavé en 1480, faisant mention des closeries de ces deux échevins. Voir Jacques Saillot, Dictionnaire des rues d’Angers, Angers, 1975, t. 1, p. 59, maison et chapelle de La Barre, dépendant de l’abbaye Saint-Nicolas ; p. 190, le chemin de la Croix Belette doit son nom à une ancienne closerie appelée la Croix Pellet. Cet ensemble est situé aujourd’hui entre la rue Montesquieu et l’avenue Patton, non loin de la Doutre, hors les murs du Moyen Âge. 7 BMA, ms. 760 (682), papiers de la confrérie Saint-Nicolas, f° 41v°. 2 156 Thomin Du Fay Famille Du Fay Pierre Du Fay (40) marchand († 1479 Jean Dupin († 1529) ∞ Marguerite Lecomte († 1533), fille de René Lecomte et Perrine de Cherbeye Olive Du Fay ∞ 1° Nicolas Daudier, avocat († av. 1503), 2° René de la Sansonnière, sgr de Mézières Renée Dupin François Du Fay († 1558), sgr de l’Espine, avocat ∞ Anne de Michot s.h. Barthélemy Du Fay (39), sieur du Jau et de Granville ∞ Marie Buscher, fille de Ligier Buscher (20) Philippes Du Fay, sieur de la Baronnerie, avocat Perrine Daudier∞ Pierre Dolbeau, sieur de la Faye ∞ Renée Du Fay († av. 1558) Baudouin Du Fay, sieur du Jau et d’Erigné, échevin en 1524 Françoise Du Fay ∞ Robert de Pincé (100) s.h. Orfraise Du Fay ∞ Jacques Migon, sgr de Puissansault, échevin en 1564 sept enfants baptisés à Saint-Pierre entre 1543 et 1554 Hélie Du Fay, sgr du Jau († 1609) ∞ Françoise Bourgeois Philippe Du Fay (1550-?) 157 Mathurin Du Fay, chapelain de la chapelle Sainte-Anne, église de la Trinité, Angers Jacquine Du Fay (1551-?) ∞ 1° Jacques Clausse, gouverneur des Ponts de Cé, 2° Charles Gencian, maître des Eaux et Forêts de Meaux Clémence Du Fay († 1518) ∞ Jean Lasnier (63) Pierre Du Fay (1532-?) sgr de la Baudinière Françoise Du Fay (1555-?) Hélie Du Fay (1556-?) 158 ° 41 DU VAU Bertrand Dates : 1484-1516 1- Bertrand du Vau est très certainement un fils cadet de Jean du Vau, seigneur du Vau (paroisse de Chavagnes-les-Eaux) et de Marguerite Delacroix1. Jean du Vau, sénéchal, préside les audiences de La Fillotière de 1426 à 1437 ainsi que celles de Morannes de 1448 à 1453. Il fait partie du conseil du roi de Sicile au moins en 1450 et exerce les fonctions de juge ordinaire d’Anjou et du Maine à partir de 1453. Il est également juge de la prévôté et élu d’Anjou jusqu’en 14532. Bertrand a un frère aîné, prénommé Gilles, seigneur du Vau après Jean et une sœur, Françoise, mariée avec Pierre d’Avaugour3. 2- Bertrand du Vau est marié avec Renée des Hommeaux, veuve de [? ] Restier, seigneur de Villegontier, de qui elle a un fils, Louis Restier4. Renée est la sœur d’Hardy des Hommeaux, seigneur de L’Estang et de Beaumont. 3- Le couple a au moins une fille, Jeanne mariée avec Jean d’ Avaugour, seigneur de Neuville5. 4- Bertrand est Licencié en lois. 5- La première apparition de Bertrand du Vau est aux côtés de Jean du Vau, sénéchal de Beaufort, comme commis, en 1468. Il est sénéchal de Champtoceaux de 1475 à 1477, puis préside les audiences en tant que sénéchal à Morannes entre 1479 et 1515. Bertrand du Vau est membre de l’élection d’Angers depuis au moins 1480. Il est échevin en 1484 lors de la réforme de la mairie. Dès cette date, il est dit commissaire du roi pour les finances, avec Jean Bernard (10), lui aussi élu en l’élection d’Angers. En fait, il participe essentiellement à l’examen et à la clôture des comptes des receveurs des deniers communs. En juillet 1487, Bertrand du Vau est nommé commissaire pour les vivres de l’ost. Il est actif durant la période des guerres de Bretagne, pour l’ost mais aussi pour les gardes et guets aux portes de la ville. Il est élu maire le 1er mai 1489. Durant ses trente-deux ans de présence au conseil de la ville, 1 Célestin Port, t. 4, p. 669, donne une liste des seigneurs de Vau. Plusieurs Delacroix appartiennent à l’entourage des ducs d’Anjou dès le début XVe siècle. Guillaume Delacroix est avocat fiscal de 1415 à 1453. Louis Delacroix est procureur d’Anjou sans doute avant 1433 et François, fils de Louis, rejoint son père pour l’assister dans cette fonction. François meurt en juin 1472, avant son père (Beautemps-Beaupré, tome 3, p. 28 à 34). 2 Isabelle Mathieu, p. 716-717. 3 ADML, 5 E 5/509 : le 9 décembre 1518, Bertrand du Vau, héritier pour partie de sa défunte sœur Françoise du Vau, restaure et dote une chapelle à Daumeray et y fonde une messe 4 ADML, 5 E 5/506 : testament de Louis Restier daté du 9 décembre 1506. Bertrand du Vau a participé à plusieurs déplacements auprès du roi, missions de représentation mais aussi de négociations quand il s’agit de réclamer quelques sommes de deniers. Il va régulièrement au château du Verger rencontrer le maréchal de Gié. Il faut dire qu’en tant qu’élu, il est souvent chargé de représenter la ville. À plusieurs reprises, il remplace le maire, absent ou lors du décès de Pierre de Pincé (99), mort en charge ; le conseil le choisit alors comme étant le plus ancien échevin. Il résigne son office le 17 mai 1516 par lettres de procuration données à maître Jean Audouyn, en faveur de Guillaume Crespin (34), qui a dû aussi le remplacer comme élu de l’élection d’Angers. Pourcentages 80 60 40 20 % Assiduité 0 périodes 6- Bertrand du Vau habite près de l’ancien marché aux bêtes, du canal et du jeu de Paume Boisnet, paroisse de Saint-Michel-du-Tertre. Il a pour voisins Jean Richaudeau (112), Jean Lecamus, juge de la prévôté (70), et plus anciennement Jean de La Vignolle et Michel de Cherbeye, sieur d’Ardanne. Il possède plusieurs domaines en dehors de la ville. Les Loges à Baracé est un château qu’il doit affectionner particulièrement. Il s’y rend souvent et il y fonde une messe. La closerie du Pin se situe en la paroisse Saint-Laud, hors les murs, à proximité de la ville. En 1519, cette closerie est vendue par Jean du Vau à Jacques Lemesle, secrétaire de l’évêque1. Le fief du Grand Breil relève de Bécon et Bertrand du Vau rend l’hommage simple à Saint-Martin d’Angers en 1494 pour cette terre. En 1520, « noble et puissant » Guy d’Avaugour, héritier de feu Bertrand du Vau vend à Jean Cadu (22), l’héritage de son beaupère. Il comprend l’hôtel, terre et seigneurie de Rozée en la paroisse d’Avrillé, avec entre autre trois métairies, entre Avrillé et Cantenay2. En 1521, le même d’Avaugour vend à Marc Belot le lieu, closerie et appartenances de la Tynalière à Foudon, appartenant à feu Bertrand 1 2 ADML, 5 E 1, acte de vente du 12 mai 1519. ADML, 5 E 121/1085 acte de vente du 1er mars 1520. 160 du Vau, avec grâce et faculté de réméré1. Enfin, il possède des domaines dans le Maine, terres qu’il vend en 1489 à la confrérie des chapelains de la cathédrale du Mans ; il s’agit des terres de Launay, de la Qu et de la Fosse, vendues pour 1.120 écus d’or2. 7- Par son mariage avec Renée des Hommeaux, Bertrand du Vau est allié avec la famille de Jean de Rély, évêque d’Angers (1491-1499). 9- Bertrand du Vau décède avant le 12 mai 1519. 10- Seigneur des Loges et du Breil. Ses armes sont ; « D’Azur à deux alérions d’or posés en chef et une harpie de même, en pointe membrée et becquée de gueules ». ADML, 5 E 5/509, signature de Bertrand du Vau du 9 décembre 1518. 1 ADML, 5 E 5/512, acte de vente de mai 1521. BILARD É., Analyse des documents historiques conservés dans les archives du département de la Sarthe, t. 2 : XIVe et XVe siècles, Le Mans, 1862, p. 89, n°826. Ces informations m’ont été transmises aimablement par Jean Michel Matz. Famille Du Vau Hardy des Hommeaux, sgr de L’Estang et de Beaumont († av. 1511) ∞ Madeleine Bérard Jean Du Vau, élu juge ordinaire d’Anjou († 1472) ∞ Marguerite Delacroix Gilles Du Vau, sgr de Vau ∞ J. Piedouault Françoise Du Vau († 1518) ∞ Pierre d’Avaugour († av. 1518), sgr de Neuville Jeanne Du Vau ∞ Jean d’Avaugour sgr de Neuville Jean Du Vau, sgr de Vau ∞ Marie Sabart Jean Du Vau, sgr de Vau ∞ Radegonde de la Haye-Montbault Guy d’Avaugour, sgr de Neuville († av. 1527) ∞ Guyonne de Villeprouvée, fille de Fr. de Villeprouvée & de Françoise du Plessis Claude d’Avaugour ∞ Jacques Clérambault, vicomte du Grand Montreveau Gille Du Vau, sgr de Vau ∞ Marguerite Guesdon René Du Vau, sgr de Vau († 1584) ∞ Anne de la Brunetière Bertrand Du Vau (av. 1520), sieur des Loges et du Breil (41) Jacqueline Clérambault ∞ Pierre de Laval, baron de Lezay 162 René Clérambault ∞ Renée des Hommeaux, veuve de < > Restier, sgr de Villegontier Mathurine des Hommeaux ∞ Martin de Rély, cousin de Jean de Rély, évêque d’Angers s.h. Louis Restier, sgr de Villegontier Jeanne Restier ∞ Jamet Constant sieur Du-VauPrécieux († 1526) Claude de Clérambault Louise Clérambault ∞ Louis, vicomte de Rochechouart ° ERNAULT Jean Dates : 1485- 1502 1- Jean Ernault apparaît dans les sources à la fin des années 1460. Il fait partie de l’entourage de René d’Anjou comme valet de chambre et marchand drapier1. 2- Jean Ernault est marié avec Gillette Bourgeolays, soeur de Jean Bourgeolays (16). Il est le beau-frère de Noël Bout , tailleur et valet de chambre de René d’Anjou. Ainsi, Ernault, Bourgeolays et Boutault sont tous les trois fournisseurs du roi René. 3- Jean Ernault et sa femme ont trois filles connues. Jeanne épouse Robert du Fresne, fils de Louis du Fresne, écuyer au service du duc. Marie se marie avec Olivier Bouvery (18) et Renée avec Robert Thévin (122). 5- Jean Ernault est marchand drapier. Il est nommé échevin en janvier 14852, quand l’effectif passe de vingt-quatre à trente membres. Entre 1479 et 1486, il participe à des missions de visite des bois et de la poissonnerie. Fort de cette expérience, il prend l’office de visiteur des bois le 12 juin 1489, office laissé vacant par le décès d’Ambroise Philippes (95)3. Tout au long de ses années d’échevinage, il fournit la ville en drap pour les robes des membres du conseil, sergents, chevaucheurs et trompette, notamment pour les festivités du Sacre4. Le conseil met d’ailleurs beaucoup de temps à le payer, les réclamations sont récurrentes. En 1487, il est nommé contrôleur des festivités entourant la venue du roi5. Sans doute vieillissant, il assiste au conseil jusqu’en 1502, mais reste en retrait à compter de 1499 et ne participe plus Pourcentages à aucune mission. 60 50 40 30 20 10 0 % assiduité Périodes 1 AN, P 133415, f° 198, le 10 juillet 1469. AMA, BB 2, f° 60v°. 3 AMA, BB 7, f° 6. 4 AMA, BB 5, f° 9, BB 7, f° 36, BB 8, f° 38, BB 9, f° 84, BB 10, f° 28. 5 AMA, BB 5, f° 5v°. 6- Jean Ernault demeure rue Baudrière. Sa maison touche les murs de la Cité. Lors de l’inspection de ces murs en 1473, il est fait mention d’aménagements de Jean Ernault qui fragilisent la muraille et il est sommé de condamner notamment des fenêtres jouxtant la tour de la muraille1. La maison est transmise ensuite à Robert du Fresne, ce qui confirme l’alliance avec cette famille par le mariage d’une de ses filles2. En 1469, Thomas du Verger, bourgeois de la ville, lui vend une maison rue de la Bourgeoisie pour le prix de 500 écus, en monnaie et en vaisselle d’argent. Thomas du Verger avait une dette en argent et en marchandises pour 122 écus, somme déduite de l’achat de la maison3. Il semble que l’achat ait été fait conjointement avec Noël Boutault, l’un et l’autre époux de deux filles Bourgeolays, et Boutault réclame d’ailleurs sa part de maison en numéraire4. Outre ces maisons, Jean Ernault possède le manoir de La Marsaulaie à Saint-Mathurin-sur-Loire qui lui confère le titre de sieur de la Marsaulaie. 7- Le réseau de Jean Ernault est essentiellement professionnel. Fournisseur du duc en drap, il côtoie les drapiers, couturiers et autres tailleurs de la cour ducale. C’est dans ce milieu qu’il se marie. Par la suite, il élargit ses fréquentations au monde de la politique locale et ses filles épousent des membres de l’échevinage. 9- Nous ne connaissons pas la date de son décès, il disparaît des sources en mars 15025. 10- Jean Ernault est fréquemment appelé Petit Jean, peut-être est-ce pour le distinguer de Jean Bourgeolays, son beau-frère couturier du duc, qui est souvent appelé dans les sources ducales grand Jean couturier. François Comte, « L’enceinte urbaine d’Angers et son impact dur l’espace urbain », dans Projet Collectif de Recherche (PCR) Enceintes urbaines médiévales dans le Grand Ouest, Nantes, 2011, p. 20-51. 2 ADML, 1 Hs E 67, comptes des cens de l’hôpital de 1522-1532. 3 AN, P 133415, f° 198. 4 AN, P 133415, f° 197, mai 1474. 5 AMA, BB 13, f° 14. Famille Ernault Jean Ernault, sieur de la Marsaullaie († 1498) (42) ∞ Gillette Bourgeolays, fille de Jean Bourgeolays, dit Grand Jean (16) Jeanne Ernault ∞ Robert Du Fresne, fils de Louis Du Fresne René Du Fresne Marie Ernault ∞ Olivier Bouvery, sieur des Hommeaux (18) François Du Fresne, sieur de Mincé ∞ Jacquette Lecamus, fille de Jacques Lecamus (69) et de Guyonne Boisseau Olivier Du Fresne, sieur de Mincé ∞ Madeleine Becquantin Robert Du Fresne, sieur de Mincé ∞ 1° Antoinette Migon, fille de Jacques Migon et d’Orfraise Du Fay 2° Olive de Fleurville Renée Du Fresne ∞ François Fournier, échevin en 1568, fils de Guillaume Fournier, échevin en 1551 et d’Hélène Errault 165 Pierre Thévin (121) ∞ Marie Renée Ernault ∞ 1° Robert Thévin (122) 2° Jean Ogier, sieur de Beauvais 166 N° 43 FALLET Jean Dates: 1475-1496 1- Jean Fallet est issu d’une famille de bouchers, installée dans les rues de la grande et de la petite Boucherie depuis le premier tiers du XVe siècle1. Simon Fallet y est présent avant 1435, puis ce sont Jean et Robert dans les années 1450. Jean Fallet, échevin apparaît peu après, à la suite de son père, le premier Jean Fallet, décédé. En 1492, il est fait mention d’un défunt Jacques Fallet. Une autre branche de la famille est installée dans la Doutre, de l’autre côté de la Maine. Simon Fallet avait une maison rue Saint-Nicolas2. Chronologiquement, l’occupation telle qu’elle est décrite dans les censiers, donne Simon Fallet le plus ancien membre de cette famille. Ses biens de la Doutre passent à Pierre Gaudin, dont la fille épouse Geoffroy Fallet, qui est sans doute un fils de Simon et donc un oncle de Jean Fallet l’échevin3. La famille Gaudin est déjà possessionnée dans la Doutre à la fin du XIVe siècle4. Geoffroy est dit maître, en attribuant plutôt ce qualificatif au statut de boucher juré ou qu’à un très improbable grade universitaire. Il se trouve qu’en 1454, Jean de Cherbeye, procureur du roi pour les Aides, voulait résigner son office au profit de son substitut, maître Geoffroy Fallet. Mais les choses n’ont pas été suivies d’effet semble-t-il5. 2- Jean se marie d’abord avec une certaine Richette Jurelle. Veuf, il se remarie avec Jacquette Doisseau, fille de Guillemin Doisseau, d’une famille de marchands anciennement installée à Angers. Veuve à son tour, Jacquette Doisseau se remarie avec Guillaume Lecomte. 3- De sa première union, Jean Fallet a une fille, Marie qui se marie avec Lézin Guyet, (52). Avec Jacquette Doisseau, ils ont plusieurs enfants, tous baptisés à Saint-Pierre, paroisse de résidence de la famille : sont nés successivement Perrine (1490), Jacquette (1491), Jean (1493) et Olivier (1496), mais seule Jacquette était encore vivante en 15196. Elle est mariée avec maître Pierre Lepelletier, licencié en lois et châtelain de Saint-Denis-d’Anjou. 5- Jean Fallet, maître boucher, est sans doute reçu boucher juré au début des années 14507. Il 1 BMA, ms. 770 (689), cens de Saint-Martin, f° 84. Myriam Combe, p . 194 . 3 Myriam Combe, p. 157, 158. 4 Anne-Claire Mérand, p. 134, 155 , 157 , 196 . 5 Beautemps-Beaupré, tome 2, p . 332 . 6 ADML, 5 E 121 / 1086 : le 22 décembre 1519, les autres héritiers sont dits décédés depuis que le partage des biens de Jean Fallet a été fait par justice le 31 décembre 1497 entre Lézin Guyet, son gendre et Jacquette Doisseau sa seconde femme, tutrice naturelle de leurs enfants. 7 AN, P 13345, f°189 : le 30 août 1453, il est dit « de presens boucher de la boucherie d’Angiers ». 2 167 est un conseiller de la mairie dès sa création. Lors de la réforme de 1484, il est échevin et le reste jusqu’à sa mort en septembre 1496, après avoir été élu maire le 1er mai 1491. En 1477, il prend la ferme de la Prévôté pour trois ans, pour 2.080 livres1. Il garde la ferme au moins jusqu’en 1483, même s’il a perdu de l’argent quand le roi Louis XI a donné la gestion de la police et tous les revenus des amendes s’y rattachant à la ville en 14752. Jean Fallet prend également la ferme de la Cloison en 1480 avec Hamelin Charpentier et la reprend régulièrement jusqu’en 14923. En 1489, il prend à ferme le pavage de la ville pour 400 livres4. La relation de Jean Fallet avec la mairie est d’abord une affaire d’argent. Non seulement il prend plusieurs recettes à ferme et fait ainsi des avances de trésorerie à la ville, mais il prête également de l’argent très régulièrement quand celle-ci se trouve vraiment sans ressource5. Cumulant les fermes, il est également nommé receveur général des deniers communs de la ville : autant dire qu’il a la main sur toutes les finances municipales. Le conseil, loin de s’offusquer d’une telle mainmise, lui demande et le somme même de tenir les comptes6. Son parcours à la mairie est jalonné de prêts, de demandes de remboursement et de mises à plat de ses comptes qu’il est parfois très difficile de clôturer7. Après son décès, le conseil décide d’exonérer sa veuve de tout droit de Cloison en considération des grands services de feu son mari. Mais elle est convoquée plusieurs fois pour apporter les papiers qui restent de la gestion de son époux. Cela dure près de quatre ans et en mars 1500, elle finit par demander d’être Pourcentages quitte des comptes de son mari8. 80 60 40 20 0 % Assiduité Périodes 1 AN, P 133411, f° 76. 2 AN, P 133411, f° 37 le 28 mars 1481, il réclame à la Chambre des comptes un rabais sur sa ferme du fait des diminutions faites par ceux de la mairie. 3 AMA, BB 6, f° 54v°, le 30 mars 1489 pour trois ans. BB 8, f° 44 le 11 octobre 1492, il fait requête au conseil d’un rabais sur sa ferme dont il dit n’avoir profité du fait de la guerre de Bretagne. 4 AMA, BB 7, f° 28 le 31 octobre 1489. 5 AMA, BB 2, f° 52, le 23 novembre 1484, ou BB 2, f° 77v°, le 14 février 1486, il propose de prêter de l’argent. 6 AMA, BB 5, f° 66v°, le 14 décembre 1487. 7 AMA, BB 5, f° 61v° et v° 62f°, le 29 novembre et le 4 décembre 1487. 8 AMA, BB 11, f° 27v°.
18,630
30/halshs.archives-ouvertes.fr-halshs-01057339-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
3,162
5,157
Un risque d'origine anthropique : la contamination chronique par les métaux lourds à proximité d'anciens sites miniers. Le cas de la mine (plomb, zinc, cadmium) de Jebel Ressas (Tunisie nord-orientale) Manel Ghorbel, Pierre Courjault-Radé, Marguerite Munoz, Éric Maire, Christine Destrigneville, Radia Souissi, Fouad Souissi risque d'origine anthropique : la contamination chronique par les métaux lourds à proximité d'anciens sites miniers. Le cas de la mine (plomb, zinc, cadmium) de Jebel Ressas (Tunisie nord oriental e ). Risques et environnement vul rabilité des société s , matta n UN RISQUE D'ORIGINE ANTHROPIQUE : LA CONTAMINATION CHRONIQUE PAR LES METAUX LOURDS A PROXIMITE D'ANCIENS SITES MINIERS. LE CAS DE LA MINE (PLOMB, ZINC, CADMIUM) DE JEBEL RESSAS (TUNISIE NORD-ORIENTALE) M. GHORBEL, P. COURJAULT-RADÉ, M. MUNOZ, E. MAIRE, C. DESTRIGNEVILLE, R. SOUISSI, F. SOUISSI1 L'estimation du risque de contamination métallique autour d'un ancien site minier conduit à adapter l'analyse au caractère chronique de cette contamination. La diversité des enjeux concernés, environnementaux (écosystèmes) et sociétaux (impacts sanitaires), implique l'intégration de l'ensemble des paramètres constitutifs du risque - aléas et vulnérabilité des enjeux - dans un système à s spatialisées (SIG). La carte de risque préliminaire obtenue sur l'enjeu sol illustre notre démarche pluridisciplinaire. Introduction L'analyse des risques en relation avec l'environnement s'intéresse surtout aux catastrophes naturelles telles que les éruptions volcaniques, les inondations, les séismes. Or, la société actuelle étant fortement marquée par le développement industriel et technologique, les risques d'origine anthropique deviennent de plus en plus prégnants. Dans ce contexte, les risques associés aux contaminations métalliques qui résultent d'un excès d'accumulation, accidentelle ou chronique, de métaux lourds dans l'environnement, restent peu étudiés. De fait, les études menées Manel Ghorbel, RME, Université de Tunis –Tunisie ; Pierre Courjault-Radé, LMTG Université de Toulouse – France ; Marguerite Munoz, LMTG, Université de Toulouse – France ; Eric Maire, LMTG, Université de Toulouse – France ; Christine Destrigneville, LMTG, Université de Toulouse – France ; Radia Souissi, INRAP (Tunis) – Tunisie ; Fouad Souissi, RME, Université de Tunis- Tunisie 1 UN RIS QUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS sont le plus souvent des études d'impact dont la finalité est l'évaluation de l'état du milieu suite à l'occurrence d'une contamination par les métaux (Kontopoulos et al., 1995). Certaines d'entre elles s'intéressent au risque mais ne traitent que la partie aléa du risque (Korre et al., 2002 ; Xenidis et al., 2003), analyse dite « aléa-centrée » sensu d'Ercole et Demoraes (2003). De ce fait, les résultats obtenus sont en général difficilement exploitables dans une optique d'aide à la prise de décision pour la gestion des sites contaminés qui, en tout état de cause, doit tenir compte des situations spécifiques des populations riveraines et des écosystèmes. La prise en consid de la problématique contamination métallique en tant que risque pour l'environnement et l'être humain conduit à prendre en compte un ensemble de paramètres faisant intervenir non seulement les notions de source et vecteurs de la contamination pour les aspects concernant la caractérisation de l'aléa, mais également les notions d'enjeux et de vulnérabilité de ces enjeux qu'ils soient d'ordre écologique ou sociétal. Dans le cadre de l'analyse du risque de contamination métallique chronique, les éléments du risque tels que, aléa, enjeux et vulnérabilité doivent être adaptés à la problématique spécifique de l'accumulation chronique de métaux lourds, sensiblement différente des contaminations accidentelles. La vulnérabilité correspondra à un ensemble de paramètres spécifiques à ces différents enjeux qui favoriseront ou limiteront l'accumulation de la contamination. En outre, ces éléments étant spatialisables et par conséquent intégrables dans un système d'information géographique (e.g. Figure 1 : Localisation du site de Jebel Ressas (DI, DII et DII correspondent aux trois terrils de déchets) Jouxtant le terril DIII, se situe le village de Jebel Ressas (Figure 1). A la bordure ouest des terrils, l'activité agricole s'est développée sur la plaine jusqu'à l'Oued Hma. Le secteur d'étude est ainsi délimité par le massif de Jebel Ressas à l'est et l'Oued Hma, à l'ouest. Au point de vue climatique, la région de Tunis se situe dans la zone méditerranéenne semi-aride caractérisée par de longues périodes de sècheresse entrecoupées par de fortes pluies torrentielles. Ces caractéristiques climatiques ont une incidence marquée sur les modalités de diffusion de la contamination métallique en particulier par les aérosols soulevés par les vents et par le ruissellement. 2. Les composantes du risque à Jebel Ressas 4 UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS Les nombreuses définitions du risque proposées dans la littérature varient selon la discipline concernée ; elles s'adressent essentiellement à des phénomènes ponctuels (e.g. Barki et al., 1993 ; Rapant et al., 2008). Dans le cadre de la présente étude, la définition du risque retenue est celle d'un aléa croisé avec la vulnérabilité des enjeux, telle que proposée par Propeck-Zimmerman et al (2008) dans le cadre des risques industriels mais qu'il s'avèrera nécessaire d'adapter à l'analyse de risques chroniques. Les différentes composantes, aléas, enjeux et vulnérabilité, sont définies ci-après. 2.1. Les aléas L'aléa est défini par Propeck-Zimmerman et al. (2008) comme le résultat du croisement de l'intensité d'un danger avec sa probabilité d'occurrence. Le danger Dans le cas de contaminations chroniques, le danger est constitué par la source de cette contamination. Le volume et les concentrations en métaux lourds sont les deux paramètres clés qui caractérisent l'intensité du danger. A Jebel Ressas, les déchets de laverie représentent un volume important et des concentrations élevées en métaux lourds, plomb (Pb) et cadmium (Cd) dont la toxicité est reconnue pour l'Homme (Papanikolaou et al., 2005) et les écosystèmes (Muhamad et al., 2005). Les déchets de laverie sont stockés en terrils à sommet plat de 10 mètres de hauteur en moyenne représentant un volume total d'environ 600 000 m3. Une étude géochimique et minéralogique a été menée pour caractériser la source de la contamination en Pb, Zn et Cd (Ghorbel et al., 2008). L'étude a abouti à la distinction entre deux types de déchets. Le premier type (DI) est caractérisé par des minéraux métallifères sulfurés (sphalérite, galène et pyrite) et le deuxième type (DII et DIII) par la dominance de carbonates et oxydes métallifères (smithsonite, cérusite, hydrozincite et hémimorphite). C'est dans ce dernier type que les concentrations en Pb, Zn et Cd sont les plus importantes, atteignant respectivement 2%, 6% et 0,025% du poids. Avec de telles concentrations concernant des volumes importants, le stock de métaux toxiques et cancérigènes que sont le plomb et le cadmium représente un danger pour l'environnement et les populations avoisinantes. La probabilité d'occurrence Dans ce cas de contamination chronique, pour évaluer la probabilité d'occurrence, il s'agira d'estimer le potentiel de mobilisation et le taux de transfert des métaux lourds depuis la source vers les différents compartiments de l'environnement (eau, sols, atmosphère et organismes vivants). Cette estimation passera par l'analyse des différents mécanismes physico-chimiques de transfert qu'il sera nécessaire de paramétrer et de quantifier dans l'espace et le temps afin de prévoir des niveaux toxiques d'accumulation en métaux lourds potentiellement toxiques. Les déchets de Jebel Ressas étant stockés sans aménagement et non végétalisés, ils sont soumis aux intempéries de cette région semi-aride qui induisent une intense érosion éolienne et hydrique. Plus précisément, les mécanismes de transfert à UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS 5 envisager sont : le transport en solution après altération chimique, le transport de particules en suspension dans l'eau ou par l'air et le transport d'origine anthropique. - Le transport en solution Le transport en solution est contrôlé par la solubilité des minéraux métallifères dans les eaux de drainage des déchets. La modélisation géochimique de l'altération dans les terrils a permis d'établir que la présence de minéraux carbonatés exerce un effet tampon sur les eaux de drainage et contribue au piégeage des métaux sous forme de minéraux métallifères stables en conditions atmosphériques (carbonates métallifères essentiellement). La modélisation a permis de calculer des concentrations maximales de Pb et Zn dans les eaux de drainage. Les concentrations obtenues varient entre 40 et 114 μg/l pour Pb et entre 124 et 7600 μg/l pour Zn (Ghorbel et al., 2008). Ces concentrations excèdent légèrement les normes de potabilité européennes (DCE 2000), indiquant un faible taux de transport des métaux sous forme dissoute. Notons que les paramètres géologiques, tels que la perméabilité et l'épaisseur des couches, sont également à prendre en compte pour estimer le taux d'infiltration de la contamination vers les nappes souterraines. - Les transports physiques Les mécanismes de transport physique de la contamination apparaissent prépondérants sous ces conditions climatiques. L'érosion physique est potentiellement élevée en raison d'une forte érodibilité des déchets (granulométrie fine associée à une faible cohésion). Les transferts sont également fonction des caractéristiques morphologiques et de la topographie de détail du bassin versant. L'érosion hydrique entraînant des particules métallifères par ruiss vers les terrains agricoles, les cours d'eau et le village peut être particulièrement efficace lors des fortes pluies torrentielles. Le transport éolien avec des vents dominants provenant du nord-ouest est susceptible d'entraîner la contamination vers le village de Jebel Ressas. L'activité anthropique constitue également un potentiel de transfert de la contamination. Les terrils sont en effet utilisés comme terrain de jeux et recoupés par des voies de passages routiers et piétonniers. Le piétinement favorise le soulèvement de poussières et le transport sur les vêtements amène la contamination jusqu'aux habitations. 2.2. Les enjeux et leur vulnérabilité Les enjeux On définira l'enjeu comme toute entité susceptible d'être affectée par la contamination. Ces enjeux pourront être d'ordre environnemental, socioéconomique et/ou sanitaire. Dans le système considéré, les enjeux peuvent être affectés par la contamination provenant directement de la source ou par celle transmise par un enjeu qui lui-même contaminé devient une source secondaire. Il est alors possible de hiérarchiser des enjeux de différents ordres. Ainsi, par exemple, le sol peut être considéré comme enjeu de premier ordre affecté par la contamination provenant directement des terrils. Une fois contaminé par le dépôt de particules métallifères, le sol peut se comporter comme une source secondaire à partir de laquelle la contamination biodisponible pourra ensuite être transférée vers les cultures qui représentent alors un enjeu de second ordre. Les végétaux cultivés représentent une nouvelle source de contamination qui peut affecter par ingestion les êtres humains, enjeu de troisième 6 UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS ordre. Entre les végétaux et les êtres humains peuvent aussi s'intercaler les animaux d'élevage qui entrent dans la chaîne alimentaire et ainsi dans la chaîne sourceenjeux-source. Selon la problématique environnementale ou sociétale sur laquelle portera l'intérêt, l'étude se concentrera sur un enjeu spécifique ou sur toute ou partie de la chaîne de contamination. La vulnérabilité des enjeux Dans son acception la plus simple, la vulnérabilité d'un enjeu est « la capacité ou la propension à favoriser l'endommagement (dans le cas des biens) ou les préjudices (dans le cas des individus) des éléments exposés à un aléa » (MATE, 1997). Si la vulnérabilité reflète la fragilité d'un enjeu donné, elle doit également prendre en compte d'une part les éléments de prévention et de protection qui la diminuent et d'autre part la capacité de résilience du système exposé (D'Ercole et P on, 1999). La vulnérabilité sera qualifiée d'environnementale si les enjeux pris en compte concernent le domaine de l'écologie au sens large tels que la qualité des eaux et des sols et la biodiversité des écosystèmes (Adger et al., 2005 ; Cartier, 2005). Elle sera qualifiée de sociale, si les enjeux correspondants s'adressent in fine, à tout ce qui touche les populations et en particulier, à la santé humaine (D'Ercole et Demoraes, 2003). Dans le cadre spécifique de l'analyse du risque de contamination métallique associé aux sites miniers, la vulnérabilité des enjeux pourra être estimée à partir des différents paramètres qui favorisent ou limitent leur contamination. 3. Spatialisation du risque à Jebel Ressas Dans cet article, seule l'édification de la carte de risque de contamination métallique du sol sera exposée afin d'illustrer la méthodologie adoptée. 3.1. Méthodologie Les paramètres permettant de caractériser les modes de transfert de la contamination, les enjeux et leur vulnérabilité, sont dans un premier temps, intégrés dans un système d'information géographique (SIG) qui est un outil de gestion et d'analyse de l'ensemble des données d'entrée (e.g. Bonnet, 2004). La mise en place d'un tel SIG conduit à l'inventaire des données (cartes thématiques, modèle numérique de terrain). En outre, le SIG permet d'une part de combiner et de synthétiser les données et d'autre part, de présenter les résultats de manière opérationnelle et adaptée à la gestion du site. Dans l'étude présentée, la méthode utilisée est basée sur la combinaison de cartes de divers paramètres d'une région, en donnant un index numérique ou une UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS 7 valeur à chaque paramètre (Belzègues et al., 2002). La combinaison des cartes est effectuée par des logiciels de traitement comme « multicritères-ArcGIS ». Chaque paramètre possède une gamme de variation définie qui est subdivisée en intervalles discrétisés et hiérarchisés. Un index est attribué à chaque intervalle, reflétant le degré relatif de contribution ou de sensibilité vis-à-vis du processus de contamination. 3.2. Premiers résultats : cartographie du risque de contamination du sol par transport hydrique de surface La carte de risque est construite à partir d'une carte d'aléa représentant le réseau potentiel de transfert par ruissellement et d'une carte de vulnérabilité de l'enjeu sol représentant les zones de niveau d'accumulations potentielles de la contamination. Cartographie de l'aléa L'aléa correspond à la mobilisation des métaux suite à l'érosion des terrils et à leur transport par ruissellement vers le sol lors d'évènements pluvieux torrentiels. L'intensité de cet aléa dépend de la susceptibilité des déchets à l'érosion et de la topographie du bassin versant qui influence l'hydrodynamisme et le transport des particules. Dans un premier temps, trois cartes ont été établies à partir d'un modèle numérique de terrain (MNT) obtenu par l'intermédiaire de couples stéréoscopiques d'images satellites du type SPOT IMAGE REF 3D : - la carte du réseau hydrographique (Fig. 2a) est extraite à partir du modèle numérique de terrain (MNT) et à l'aide du logiciel River Tools. Elle permet de dessiner le réseau hydrographique potentiel à toutes les échelles. - la carte de l'indice topographique (Fig. 2b) est extraite à partir du logiciel RiverTools qui calcule l'indice topographique à partir du MNT avec la formule IT = log (A / S), où, pour chaque pixel, A est l'aire contributive et S est la pente locale. L'indice topographique caractérise le pouvoir d'un terrain à retenir, ou au contraire à transférer, un flux hydrique ; un terrain très incliné présentera un indice topographique faible et un fort hydrodynamisme. - la carte de l'érodibilité des déchets (Fig. 2c), basée sur l'équation développée par Wischmeier et Smith (1978) dont l'expression est la suivante : 100K = 2,1.M1,14.10-4 (12-a) + 3,25 (b-2) + 2,5 (c-3). Celle-ci intègre la granulométrie (notée M), la structure (notée c), la proportion de matière organique (notée a) et la perméabilité (notée b) pour calculer l'érodibilité K. A partir de cette équation, ont été calculées l'érodibilité des déchets puis celles des différents sols sur lesquels sont transportés ces déchets, soit le sol du village et les terrains agricoles. Les différents intervalles de valeurs ont été représentés par des polygones sous ArcGis. Par la suite, l'analyse spatiale, sous le logiciel ArcGis, permet le croisement de ces différentes données afin d'aboutir à une carte d'aléa constituée de 3 intervalles de degré d'intensité (Fig. 3). Figure 4 : a) Carte des dépressions ; b) Indices topographiques ; c) Carte des distances UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS 11 La combinaison de ces 3 cartes met en évidence un certain nombre de zones particulièrement vulnérables (Fig. 5). Figure 5 : Carte de vulnérabilité du sol face à la contamination par transport hydrique de surface Construction de la carte de risque Le croisement des cartes d'aléa et de vulnérabilité du sol aboutit à la carte de risque de contamination en métaux lourds des sols à partir de l'érosion, du transport hydrique et de la sédimentation des particules métallifères (Fig. 6). Figure 6 : Carte du risque de contamination des sols par transport hydrique de surface 12 UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS La carte des risques de contamination des sols par le transport hydrique de surface met en évidence une intensité du risque plus élevée dans un périmètre de quelques centaines de mètres (< 500m) autour des terrils proprement dits. Ce périmètre inclut le village à forts enjeux humains. En outre, elle montre également l'existence de zones potentiellement à fort risque au niveau des parcelles agricoles situées à l'aval des terrils soulignant ainsi le transfert de la contamination à des distances non négligeables. Chacune de ces zones situées à l'aval de la source primaire de contamination est susceptible de se comporter comme source secondaire et d'accroître ainsi le processus de diffusion spatiale de la contamination. Conclusion et perspectives : Les apports d'une recherche interdisciplinaire pour l'étude des risques chroniques Les résultats préliminaires exposés dans cet article ont été obtenus en adoptant une démarche d'analyse du risque basée sur le couplage entre une analyse de l'intensité de l'aléa et de l'estimation du degré de vulnérabilité des enjeux, adaptés à une contamination chronique d'un écosystème. La spatialisation telle qu'elle a été menée pour l'enjeu sol sera appliquée aux autres compartiments de l'écosystème, air, eau et biosphère en prenant en compte les différents paramètres de transfert de manière exhaustive. Pour ce faire une démarche résolument interdisciplinaire sera menée. Par exemple, dans le cas de la contamination atmosphérique, des modèles de soulèvement des poussières (Fugitive Dust Model ; Winges, 1992) et de dépôts (Dust Entrainment And Deposition model ; Zender et al., 2003) pourront être appliqués en tenant compte des paramètres météorologiques locaux et des caractéristiques physiques des déchets (granulométrie, cohésion). Cette modélisation permettra de calculer des concentrations de matière en suspension dans l'air et de définir la géométrie de l'aire contaminée sujette au dépôt des particules soulevées à partir de la source de la contamination. Par la suite, le modèle prédictif de la dispersion physique obtenu à partir des cartes de risques devra être validé par des données de terrain obtenues après échantillonnage raisonné. Ce dernier consistera à effectuer des prélèvements d'eau, de sols et d'aérosols sur la base des cartes prévisionnelles au sein desquelles les zones à niveau de risque élevé en contamination métalliques seront géoréférencées. En ce qui concerne la quantification du risque pour la santé humaine, l'objectif sera d'estimer le risque de contamination de la population suite à son exposition par inhalation, ingestion directe ou indirecte et contact dermique en s'appuyant sur les modèles utilisés pour le calcul du risque pour la santé humaine (IPCS, 1999 ). UN RISQUE D'ORIGINE ANTHROPIQUE : LA MINE DE JEBEL RESSAS 13 Pour chaque mode d'exposition, la dose journalière de métaux incorporés est calculée avec des modèles spécifiques. Ces doses seront ensuite comparées aux doses maximales admissibles de référence (Petts et al., 1997). Cette volonté de quantification ne pourra être conduite qu'en intégrant la dimension sociétale.
7,180
W4229846510.txt_1
German-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,260
2,237
Clio. Femmes, Genre, Histoire 37 | 2013 Quand la médecine fait le genre France GRENAUDIER-KLIJN, Elizabeth-Christine MUELSCH & Jean ANDERSON (dir.), Écrire les hommes. Personnages masculins et masculinité dans l’œuvre des écrivaines de la Belle Époque Vincennes, Presses Universitaires de Vincennes, 2012, 315 p. Venita Datta Édition électronique URL : https://journals.openedition.org/clio/11360 DOI : 10.4000/clio.11360 ISSN : 1777-5299 Éditeur Belin Édition imprimée Date de publication : 1 juillet 2013 ISBN : 978-2-7011-7781-6 ISSN : 1252-7017 Référence électronique Venita Datta, « France GRENAUDIER-KLIJN, Elizabeth-Christine MUELSCH & Jean ANDERSON (dir.), Écrire les hommes. Personnages masculins et masculinité dans l’œuvre des écrivaines de la Belle Époque », Clio. Femmes, Genre, Histoire [En ligne], 37 | 2013, mis en ligne le 02 septembre 2013, consulté le 22 avril 2022. URL : http://journals.openedition.org/clio/11360 ; DOI : https://doi.org/10.4000/clio.11360 Ce document a été généré automatiquement le 22 avril 2022. Tous droits réservés France Grenaudier-Klijn, Elizabeth-Christine Muelsch & Jean Anderson (dir.), ... France GRENAUDIER-KLIJN, ElizabethChristine MUELSCH & Jean ANDERSON (dir.), Écrire les hommes. Personnages masculins et masculinité dans l’œuvre des écrivaines de la Belle Époque Vincennes, Presses Universitaires de Vincennes, 2012, 315 p. Venita Datta RÉFÉRENCE France GRENAUDIER-KLIJN, Elizabeth-Christine MUELSCH & Jean ANDERSON (dir.), Écrire les hommes. Personnages masculins et masculinité dans l’œuvre des écrivaines de la Belle Époque, Vincennes, Presses Universitaires de Vincennes, 2012, 315 p. 1 Ce recueil d’essais rassemblés par une équipe internationale de chercheurs examine la représentation des hommes dans les œuvres de neuf écrivaines de la Belle Époque. Le volume est composé de onze essais sur neuf écrivaines dont certaines, telle Colette, sont toujours célèbres. La plupart cependant sont beaucoup moins connues aujourd’hui, sauf par des spécialistes. Pourtant, pendant leur époque, elles furent les auteures de best-sellers ou couronnées de prix, bien qu’elles aient dû faire face à l’hostilité ouverte de la part des critiques qui en majorité étaient des hommes. Par ordre alphabétique, les auteures traitées dans l’ouvrage sont Thérèse Bentzon, Colette, Louise-Marie Compain, Lucie Delarue-Mardrus, Daniel Lesueur, Anna de Noailles, Georges de Peyrebrune, Rachilde et Marcelle Tinayre. Outre leurs propres contributions à ce recueil, les trois éditrices en ont rédigé l’introduction et la conclusion tandis que Nicholas White a contribué par une postface. Clio. Femmes, Genre, Histoire, 37 | 2013 1 France Grenaudier-Klijn, Elizabeth-Christine Muelsch & Jean Anderson (dir.), ... 2 Alors que divers ouvrages traitent de la « crise de la masculinité » pendant cette période ‒ on pense notamment aux travaux de Robert Nye, Edward Berenson et Annelise Maugue ‒ aucune étude jusqu’ici n’a porté sur la représentation des hommes dans les écrits des romancières. Dans un ouvrage important, A. Maugue a examiné les manifestations de cette crise dans les œuvres des écrivains, surtout à travers leurs propos antiféministes et leurs portraits misogynes. En présentant les images des hommes dans les écrits des femmes écrivaines, l´étude actuelle comble une lacune importante, complétant ainsi le portrait des rapports hommes/femmes pendant cette période. À lire les essais des différents contributeurs, il est clair que les écrivaines n’ont pas du tout vu « la crise de la masculinité » de la même façon que leurs homologues masculins. 3 Les questions posées par les chercheurs sont simples même si les réponses ne le sont pas : « Comment les romancières des années 1890-1915, généralement plus éduquées et plus politisées que la majorité de leurs contemporaines, se proposent-elles de poser la question des rapports genrés et de la différence des sexes ? Assiste-t-on à une remise en cause de la prééminence masculine, ou optent-elles plutôt pour le quiproquo ? Comment ont-elles représenté leurs contemporains dans leurs récits ? Quels ont pu être leurs motivations et leurs objectifs ? » (p. 18). 4 Comme les éditrices le notent dans l’introduction, les féministes et les femmes nouvelles constituent une exception dans le paysage culturel, même si l’on doit noter, avec l’historien américain Lenard Berlanstein, qu’un féminisme modéré rencontre un large public dans la revue Femina (à l’encontre de la Fronde de Marguerite Durand, plus « pur » et « dur »). Le décalage entre la floraison des arts et la stagnation sociopolitique est également frappant. La Belle Époque, terme rétrospectif, ne fut pas belle pour tous ni pour toutes, car la plupart des femmes vivaient sous le joug masculin, surtout les femmes mariées qui avaient le statut de mineure selon le Code civil. En tant qu’historienne, j’aurais aimé voir quelques dates clés dans cette introduction, par exemple la loi Camille Sée de 1880 qui institue les collèges et lycées publics de jeunes filles, la loi Naquet qui re-légalise en 1884 le divorce interdit depuis 1816 et met fin à la différence entre l’adultère du mari et celui de la femme, et la loi de 1907 qui permet aux femmes mariées de garder leurs salaires. Bien que ces sujets soient mentionnés, le rappel de ces dates aurait permis de mieux situer les discussions entamées dans les différents chapitres. En revanche, l’émergence de la femme nouvelle dans le cadre des changements profonds du paysage urbain et de l’avènement de nouvelles technologies est très bien exposée. 5 Les neuf écrivaines étudiées démontrent une certaine hétérogénéité de pensée ; elles ont pour objet des types de mâles différents, non seulement le mari, l’amant, le fiancé et le père, mais aussi le mentor, l’homme-objet, l’artiste et le bourreau. Le portrait qui manque sous la plume des écrivaines (à l’exception de Marcelle Tinyare) est celui du militaire, décrit par les éditrices comme le type idéal de l’époque. Peut-être faut-il ajouter que le type idéal militaire est également rejeté par certains hommes, par les intellectuels dreyfusards surtout, qui préfèrent des héros pensant par eux-mêmes. Les valeurs héroïques connaissent alors un déplacement et certains traits « féminins » comme le dévouement et le sacrifice de soi sont plus valorisés qu’auparavant. 6 Étant donné qu’elles devaient vendre leurs livres (la plupart de ces écrivaines sortent de la petite ou moyenne bourgeoisie) et que la critique masculine leur était franchement hostile, la plupart des écrivaines n’ont pas critiqué de front les hommes, Clio. Femmes, Genre, Histoire, 37 | 2013 2 France Grenaudier-Klijn, Elizabeth-Christine Muelsch & Jean Anderson (dir.), ... mais ont été contraintes à déstabiliser ces stéréotypes, tout en confirmant ailleurs certains traits masculins, tels la rationalité et la virilité normative. Certaines ont dénoncé les abus masculins (de Peyrebrune, Bentzon, Delarue-Mardrus, Colette, Lesueur) tandis que d’autres ont décrit des hommes peu virils, du fait de leur âge, de la maladie, de leur faiblesse morale et intellectuelle ou, dans le cas de Rachilde, face à la virilité de la femme. Les « hommes de papier » de ces écrivaines ne peuvent pas être vus comme des types idéaux, mais plutôt comme des personnages faillibles. Pour certaines romancières, un seul homme ne peut combler tous les besoins de la femme, qu’ils soient intellectuels ou physiques. Le fait que la plupart de ces auteures refusent un « happy end » est un autre signe de leur malaise profond à l’égard des structures sociales de leur époque, notamment la domination masculine. 7 Le portrait des hommes de la Belle Époque tel qu’il est esquissé par les écrivaines est donc complexe mais riche d’enseignement. Il nous permet de mieux comprendre les rapports entre les hommes et les femmes de cette période. Cet ouvrage collectif représente donc une contribution importante non seulement à l’histoire littéraire mais à l’histoire sociale de la Belle Époque. Le livre comprend également une bibliographie des écrits des auteures ainsi qu’une chronologie au féminin qui retrace les dates importantes de l’histoire surtout littéraire de l’époque. AUTEURS VENITA DATTA Wellesley College, E.-U. Clio. Femmes, Genre, Histoire, 37 | 2013 3.
27,295
30/hal.univ-lorraine.fr-tel-01776462-document.txt_4
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,311
12,962
* 0,02 • • 0,06 •••. • •• •... - 0,02 • Cc • '"• 1!1.!!' •• • • • -* 0,04 ~ OEJ • 0,08 •• • •• • • •'"• • •.•• • ~* _ 1; r• •.!1• • ••• li I::L•••• _, • • • • '• • • • • •• • 0,04 • Cgt • • • •• • • •• • • Vb 0 0 0,2 0 0,6 0,4 0,75 0,25 1,25 1,75 2,25 Fig. 2-51 -Relations entre l'indice de gont1ement Cg1 et: a.) l'indice de compression Cc, b.) la valeur de bleu Yb. Cgz 0,25 [[] • • • • • 0,2 • •• • • ' • "., **~ • • _.,Il!.,- • • • • 1!1* • •• • • ••••• ' •• • 1~. •• • 0,15. ~ 0,05 Cgz ~ • Cc *~. • • • •:!• r• ••• 0,05 • [ill. • 0,1 ~ • • •• • •••,, • •• ••• • • • • • ••• ••• 0,2 0,15 "~• 0,1 0,25 ~ ~ • Vb 0 0 0 0,2 0,4 0,6 0,25 0,75 1,25 1,75 2,25 Fig. 2-51- Relations entre l'indice de gonllement Cg2 et: c.) l'indice de compression Cc, d.) la valeur de bleu Vb. 2.9.4 - Coefficient de consolidation L'évolution du tassement en fonction du temps pour un chargement donné permet d'obtenir une valeur expérimentale de Cv, le coefficient de consolidation. Les valeurs des coefficients de consolidation qui sont caractéristiques de la **vitesse de tassement"" sont comprises entre 1,3 10 -3 et 2,12 10 -4 cm2/s, ce qui est cohérent avec la nature des maté1iaux présents (limon en majorité) et indique que la consolidation naturelle sc produit vraisemblablement au fur ct à mesure du dépôt, sauf en cas d'apports brutaux localisés. 2 - ETUDE EXPERIMEN'l'ALE s s B. MEKERTA En conclusion, sur les essais oedométriques, les points principaux que l'ont peut retenir sont encore une fois la vadabilité locale des proptiétés avec une homogénéité globale. Ces matériaux sont moyennements compressibles, caractélisés par une forte valeur relative de l'indice de gonflement dans le domaine des faibles contraintes. Ils sont a priori normalement consolidés, mais certains prélèvements montrent des matériaux à très faible cohésion, et cela est vraisemblablement lié à des problèmes de carottage. 2.10 - Résistance au cisaillement à long terme Le comportement du sédiment en conditions triaxiales peut être caractérisé par la forme des chemins de contraintes effectives. L'ensemble des échantillons est soumis à des essais de type consolidé non drainé (C.U.), avec mesure de la pression interstitielle. En reportant nos données, on obtient des graphes qui pennettent de déterminer la valeur de l'angle de frottement interne <p' et la cohésion C' en contraintes effectives. L'utilisation de ces paramètres conespond à des analyses de stabilité à long terme des talus de pente. Nous avons réalisé une série de 10 essais dont les résultats sont résumés dans le tableau 2-IX, puis représentés en détail sur les figures 2- 52 (a), (b), (c), (d), (e), (f), (g), (h), (i) et (i). Le choix des essais sur les sondages a porté en particulier sur leurs positions; sondages S5, S8, Sll à l'amont du barrage; sondages Sl7, S18 au pied du barrage et près de la vidange de demi-fond; et en demier les sondages S21, S22, S24, S25 près de la vidange de fond. Sondage Profondeur (m) <p' (0) C' (kPa) S5 2,81-3,11 32 :::0 Nature du sol Limon S8 5,60-6,20 46 :::0 Il Sll 5,10-5,50 35 :::0 Il S17 1,10-1,40 33 =0 Il S18(l) 4,78-5,00 33 = 0 Il Sl8 (2) S21 5,60-6,00 3,65-4,05 38 32 :::0 Il Il S22 4,20-4,40 32 S24 5,15-5,45 S25 5,00-5,40 = 0 Il 32 =0 :::0 37 =0 Sable Il Tableau 2-IX- Valeurs de <p' etC' des essais triaxiaux de type consolidé non drainé des sondages S5, S8, S Il, S 17, S S2l, S22, S24 et S25. B. MEKERTA 86 700 700 Q' (kPa) a 500 0 /~ •''•' "1.4.~;:4' ~ 300. •' '•' V" r ç 100 b 500 v- 300 100 ~. Q' (kPa) • •': 100 P' (kl'a). 300 0 500 ~~ / lOO 700 Fig. 2-52 (a)- Chemins en contraintes effectives, sondage S5. / ~ ~~~ / • ;; •• ••• ~v •• l'' (kPa) 300 • 500 700 Fig. 2-52 (b)- Chemins en contraintes effectives, sondage S8. l()(){) Q' (kPa) 700 *-. Q' (kl'a) 500 c (i(){). ~ 0 v / 300 100 d 8(){) -~~ •' 100 VJ 4(){) Vj-~,. r ;** -~;;. Vi.. 300 / 2(){}, J>' (kJ>a) 1 0 500 700 / / ~., ~ ~ A r' ~ ~ ~ r 200•i• ~<> 400 P ' (kPa) 1 600 800 1()() (1 Fig. 2-52 (c)- Chemins en contraintes effectives, sondage S 11. Fig. 2-52 (d) - Chemins en contraintes etiectives, sondage S 17. 500 500 1. Q ' (kPa) Q' (kPa) 400 400 f e 300 200 100 0 / y - / • • /f ~ l'' (kPa) 1 ~ 100 200 300 • 400 500 Fig. 2-52 (e)- Chemins en contraintes effectives, sondage S 1R ( 1). 87 1110 200 300 400 500 Fig. 2-52 (f)- Chemins en contraintes effectives, sondage S 18 (2). * B. MEKERTA 900 9110 -*- -'* Q' (kPa) Q' (kPa) g 700 500.. 0 •• ~~~ -:::F &'.-•• •• • • 300 100 • ••• 300 ~f' d!. •• 100 P' (kPa) 700 500 0 100 900 Fig. 2-52 (g)- Chemins en contraintes effectives, sondage S21. ~ •• Vr p -~~--!:, ~ ~ v.•" ~,•./ / 500 v 4 ~,* 300 100 h 700 •• •••• • •• P' (kPa) • 300 ' 900 ' 700 500 Fig. 2-52 (h)- Chemins en contraintes effectives, sondage S22. lillO Q' (kPa) 700 -' Q' (kPa) j 91)() 600 • 1 500 700 -~ 400 ~,,. 300 200 100 0 ~~.!! . 100 14 200 / L,~ /. v • 3 { 10 • 400 l "' " -;; 3 ()0 v :rP*~,• .•.• ~.•• , . • 1 ()0 l'' (kPa) 1 500 600 0 700 Fig. 2-52 (i) -Chemins en contraintes effectives, sondage S24. v.* • 500 -~.V*l. 100./ ~! 300 500 / • • *~~--- • •. 700 P' (kPa) 900. 1100 Fig. 2-52 (j)- Chemins en contraintes effectives, sondage S25. De valeur moyenne <p' = 35°, les mesures de l'angle de frottement interne se situent dans une fourchette allant de 32 à 38°, une valeur de 34 à 35° semblant la plus vraisemblable ; mis à part le caractère particulier du sondage S8 qui présente un angle <p' =46°. A ces résultats, correspondent les valeurs de cohésion C' presque nulles. On remarque que les valeurs obtenues sont relativement peu dispersées. L'angle de frottement interne en contraintes effectives, paramètre intrinsèque, est lié étroitement à la nature du matéliau. Examinons donc les possibilités de relations qui pomTaient exister entre cette mesure et les valeurs des paramètres d'identification du sol. Sur la tïgure 2-53, on a reporté les valeurs de <p' en fonction de la profondeur Z . On remarque une tendance d'évolution dans l'allure générale de l'augmentation de <p' avec Z à partir de 5 m, mais jusqu'à 4,5 m <p' est constant et est égal en moyenne à 32,5°. 88 30 40 35 45 50 0 <pt (0) 1 • 2 3 • 4 • • • 5 6 Z(m) 7 Fig. 2-53- Variation de <p' en fonction de la profondeur Z. En compar ant les valeurs de <p' à celles de la valeur de bleu, le nuage de points obtenu confirme une de diminution de <p' avec l'augmentation de Yb ; comme cela est montré sur la figure 2-54. En excluant le sondage S8 (<p' = 46°, Vb = 0,865), on obtient une forte corrélation logarithmique entre <p' et Yb. La relation trouvée est la suivante: <p' = 32,65 - 4,42 Log Vb 40, avec un co efficient de corrélation R = 0,8 <p (0) t 38 36 34 32 Vb 30 0 0,5 1,5 2 Fig. 2-54- Relations entre <p' et la valeur de bleu (Yb), excepté le sondage S8. B. MEKERTA 89 Les résult ), vérifient m <p' et l' de plasticité Ip. proposé BJERRUM et SIM , (1960), pour les sols argileux nonnalement consolidés. L'utilisation de la relation de BJERRUM et SIMONS, amène à une application pratique. Elle traduit la diminution de <p' avec l'augmentation de l'indice de plasticité Ip qui est un paramètre de classification des sols. Il varie avec la fraction granulométJ.ique et la nature de la fraction argileuse. Dans le cas de la retenue de Génissiat, les valeurs des indices de plasticité sont faibles (entre 3 et 22 % ) et en les reportant sur la courbe moyenne, on y trouve des valeurs de <p' comprises entre 30 et 36°,.qui sont dans le même ordre de grandeur que ceux du tableau 2-VII ; mis à part le caractère particulier du sondage S8. 2.11 - Conclusions Alors que des opérations de dragage par système air lift étaient en cours dans la retenue de Génissiat, des difficultés sont apparues : stabilité à court terme trop élevée, problèmes d'évaluation de cubage des matéliaux dragués et réflexion sur un moyen de dévasement à la fois efficace et rentable. Aux problèmes résultant de la profondeur de dragage et de la présence d'enrochements ou de bois immergés, notamment à l'amont immédiat du barrage, s'ajoutèrent des difficultés liées au matériau, ceci montre l'intérêt dans le but d'une meilleure prévision de réaliser avant toute opération de dragage une caractétisation de base des sédiments déposés au fond de la retenue avec une étude à caractère systématique, c'est ce que nous avons fait. Une investigation complète sur les propriétés géomécaniques est intéressante pour proposer une éventuelle solution sur l'envasement des retenues de bmnges à court et long tetme. Le premier problème à résoudre était celui du prélèvement des échantillons; à la place de solutions classiques de carottage à partir d'une barge, opérations limitées en nombre, nous avons utilisé la technique de prélèvement Küllenberg qui est courante dans les sols mmins. Cette technique assez fruste permet néanmoins un nombre élevé de prélèvements dans un temps bref. Ceci a l'avantage de petmettre une approche de la variabilité des matériaux présents dans une zone donnée, qui fera l'objet du chapitre 3. Cependant, le dispositif de carottage mis en place ne nous a pas permis d'atteindre des profondeurs conséquentes pour une meilleure étude des caractéristiques géomécaniques en profondeur. Une autre particularité est que les matériaux présentent des fissures qui sont dues à la méthode de carottage maintenant les résultats géomécaniques obtenus, on peut les résumer cidessous : a) Les particularités lithologiques, décelées dans certains cas à l'ouverture des carottages et qui sont complétées par les résultats d'analyses granulométtiques, montrent du point de vue de la nature des échantillons, que les matériaux prélevés dans la retenue sont généralement des limons ou des limons sableux, dont la granulométlie est essentiellement composée de particules de taille infélieure à 80!-lm. Cependant, des passées sableuses ou nettement plus grossières peuvent être rencontrées. Les valeurs faibles de bleu montrent que la partie fine (inférieure à 2 11m) est très limitée dans les matéliaux ; cependant celle ci a une intluence sur la variation de la teneur en eau en profondeur. En fonction des limites d'Atterberg, les matériaux de la retenue de Génissiat sont décrits en général comme des limons peu à très plastique. b) La description de l'état des matériaux au moyen des mesures systématiques de teneurs en eau et de poids volumiques met en évidence d'une manière claire la très grande variabilité sur une verticale donnée. Cette t1uctuation d'état cotTespond à une instabilité de nature essentiellement de taille des grains. Il faut noter ici, que les variations lithologiques et granulométliques verticales rapides et les méthodes de mesures, entraînent lors de la comparaison des différents paramètres mesurés des difficultés dans la recherche de corrélation ; car il est impossible d'obtenir tous les paramètres stlictement à la même profondeur de prélèvement. En comparaison de l'indice de liquidité avec la profondeur, on peut noter que la consistance des matériaux est variable jusqu'à 4 rn de profondeur, mais au delà la consistance s'élève avec une fourchette de valeurs assez restreinte. c) La cohésion non drainée est un paramètre fondamental, facile et rapide à mesurer, qui pe1met de caractériser l'état «mécanique» du matériau vis-à-vis d'une sollicitation instantanée. Les résultats que nous avons obtenus pour les sondages montrent tout d'abord une certaine valiabilité mécanique au sein des matériaux présents dans la retenue. On obtient dans la majorité des cas une bonne corrélation linéaire dans l'ensemble entre la cohésion intacte au pic et la profondeur de carottage. Cependant, après une analyse des mesures (incluant en particulier la valeur de la sensibilité infélieure à 1), il nous semble qu'une part de cette variabilité peut être attlibuée à des remaniements lors du prélèvement. Si l'on considère globalement les résultats de cohésion en fonction de la profondeur tels que représentés sur la figure 2-25, on devrait limiter les fourchettes de valeurs mesurées à leur partie supélieure, soit 1 à 4 kPa vers 1 rn de profondeur, 2 à 8 kPa vers 3 rn et 4 à 12 kPa vers 5 m. Après remaniement partiel ou total, ces cohésions non drainées peuvent diminuer avec des sensibilités limitées, supérieures à 1 et atteignant un maximum de 3, ce qui est assez logique car la structuration de ces sédiments n'est pas forte, leur dépôt étant récent. d) En ce qui concerne les essais de compressibilité-consolidation, les p1incipaux résultats sont les suivants. CHAPITRE 3 RÉPARTITION SPATIALE DES PROPRIÉTÉS GÉOMÉCANIQUES DANS LA RETENUE 3.1 - Introduction Une évaluation de la géométrie du dépôt de sédiments et de la répartition spatiale des propriétés géomécaniques en plan et en fonction de la profondeur apparaît comme préalable à toute tentative de modélisation, en vue de la résolution des problèmes de dragage et d'obturation des prises d'eau. Nous nous sommes efforcés de définir des lois de répartition pour les paramètres les plus significatifs. De plus, afin de faciliter la compréhension des mécanismes de mise en place des sédiments, nous avons tenté de relier les variables entre elles. 3.2 - Méthodologie 3.2.1 - Propriétés étudiées Diverses caractéristiques géomécaniques (chapitre 2) ont été estimées à partir de chacune des carottes correspondant à un sondage. Certaines caractéristiques ont été mesurées tous les 10 à 20 cm, ce sont: - cohésion intacte au pic, Cu ; - cohésion résiduelle, Crés ; -teneur en eau naturelle, ffii. D'autres caractétistiques ont été mesurées tous les 20 à 40 cm, ce sont : - cohésion remaniée, Crem ; - teneur en eau remaniée, ffir ; - poids volumique sec, Yd ; - poids volumique humide, Yh* Entïn, diverses autres mesures ont été effectuées, mais à des intervalles de profondeur beaucoup plus irréguliers et importants (de 50 cm à 2m). Ce manque de valeurs, qui est parfois pénalisant pour l'analyse des données, est principalement dû à des difficultés pratiques (beaucoup d'essais répétitifs et qui nécessitent un long temps de réalisation) ; ce sont : - valeur au bleu, Yb ; -analyses granulométriques (avec les différenL<.; passings) ; - poids volumique des grains solides, Ys ; -limites d'Atterberg : ffil, ffip ; . ERTA -essais oedométriques (eo, O''vo. O''c, Cc, Cg1 et Cg2), où O''vo est la contrainte effective réelle due au poids des terres. Notre étude porte sur les paramètres les plus caractéristiques. Il nous a paru également intéressant de travailler sur des paramètres "dérivés", souvent nettement plus parlants que caractélistiques directement mesurées sur les carottes ; il s'agit de : - sensibilité, S ; - indice de plasticité, Ip ; - - indice de consistance, le ou indice de liquidité, Il= 1 -le 3.2.2 - Méthodes d'interpolation en plan Soit une propriété P, mesurée en n points de l'espace. L'utilisation des méthodes d'estimation a pour objectif: - de connaître la valeur de P en n'importe quel point de l'espace, avec la meilleure fiabilité. Ceci permet d'une part, de générer un champ de données, en vue de simuler un phénomène, d'autre part de "reconstituer la réalité" c'est à dire de spatialiser les données sous forme de courbes d'isovaleurs ; - de connaître la précision de ces estimations. DELHOMME, (1976), a déctit et analysé les différentes méthodes d'interpolation utilisées en géologie et dans les sciences de l'eau. 3.2.3 - Variations des propriétés avec la profondeur Pour cette étude, réalisée par zones relativement homogènes, on a eu recours aux techniques statistiques traditionnelles de régression linéaire. 3.2.4 - Corrélations entre propriétés Nous avons essayé de retrouver certaines relations empiriques classiques entre les diverses propriétés des matériaux en ayant recours à nouveau à la régression linéaire. 3.3 Géométrie du dépot de sédiments 3.3.1 - Position des sondages Le tableau 3-1 montre les coordonnées X et Y des sondages dans la retenue de Génissiat par rapport à un organe fixe du batTage. Sur la figure 3-1, on donne un plan d'ensemble du barrage et de ses différents éléments par rapport aux coordonnées de référence. N> Coordonnées Sondage x y Sl S2 S3 S4 S5 S6 S7 S8 S9 SlO s 11 Sl2 Sl3 S14 S15 S16 S17 Sl8 Sl9 S20 S21 S22 S23 S24 S25 868996,515 868964,15 869023,424 868989,801 868985,889 869012,905 869045,71 869019,712 869027,797 869001,914 869055,271 869032,94 869016,436 869060,716 869046,815 868919,68 868987,145 868963,173 868972,608 868964,272 868939,601 868963,733 868975,03 868948,966 869003,374 123083,01 123102,891 123097,729 123128,879 123152,014 123144,657 123135,723 123184,736 123214,681 123238,591 123230,286 123270,587 123290,819 123294,432 123345,454 122931,467 122912,798 122948,246 122958,7 122976,082 122997,853 122991,325 123008,983 123041,937 123027,226 Tableau I- Coordonnées des sondages dans la retenue de Génissiat. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETENUE 95 B.MEKERTA 123400 ;- OEJI 1 123300 t --------------• Rive droite 1 123200 + • 13 14 • • 12 e1o eH • 9 • • 123100 4 •2 • e24 3, 1 1 1 • • 8 (): • 123000 15 zs 23 21 • • 22 • 20 • 19 • 18 1 1 1 1 + 122900 1 1 + 122800 1 1 122700 + 1 + 1 122600 122500 1 + 1 1 1 122400 4--~ +- -1- ~ 00 \C 00 Fig. 3-1 - Plan d'ensemble du barrage et position des sondages par rapport aux coordonnées X el Y. 3.3.2 - Coupes stratigraphiques On a essayé de regrouper Je maximum de sondages, et ceci suivant les axes I, II, III, A, B et C (fig. 3-2). Le tableau 3-II récapitule les sondages se trouvant suivant le même axe. Les comparaisons portent sur les propriétés géomécaniques essentielles à savoir la cohésion intacte au pic 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETENUE 96 B.MEKERTA non drainée (Cu), la teneur en eau naturelle (COnat) et les limites d'Atterberg (COI et COp) ; cependant les valeurs mesurées des autres prop1iétés correspondant à chaque sondage se trouvent dans l'annexe 1. 123300 III 123250 +-----------r-----------~-- 123050 +-;,____ 123000 + - 1 2 2 9 50 +--------:.,_----~"'- -~,_----+------------+-------122900 x ~~~~~~+T~~~~,-~~..-.OT~o-~OT"~,; 868900 868950 869000 869050 869100 Fig. 3-2 - Position des sondages dans la retenue de Génissiat. Axe I II III A B c Sondages S 16 - S21 - S24 - S2 - S 10 - S 13 S20 - S23 - S 1 - S6 - S8 - S9 S25- S3- Sll S24- S22- Sl9- S17 S5- S3 S13-Sl2-Sil Tableau 3-II- Regroupement des sondages suivant les axes de la figure 3-2. Cette première approche permet de mettre en évidence la variabilité des propriétés géomécaniques mesurées à la même profondeur par rapport au fond de la retenue et le long d'un même axe (annexe 3). A titre d'exemple on montre sur les figures 3-3 et 3-4, des coupes stratigraphiques de la cohésion intacte au pic (Cu) et de la teneur en eau naturelle (COnat) plus les limites d'Atterberg (COl et COp) des sondages se trouvant sur l'axe I. Une autre approche a été utilisée mais en prenant en considération comme référence le niveau du plan d'eau. De la même façon, on remarque une lluctuation des propriétés géomécaniques à la même profondeur de chaque sondage et suivant le même axe ; on ne présente que la variation de la cohésion intacte (annexe 4). De même, à titre d'exemple on montre sur la figure 3-5, une coupe stratigraphique de la cohésion intacte au pic (Cu) des sondages se trouvant sur l'axe I. ow 1:7 r AXE 1 1 ~§ t'rl'""' (");:t>.0::::3,- '-'0 ~z 0 0 ÇIC/.l >""0 z~ C/.l- 0,5 l'f::; >m -1- mSZ p,J \,.I.J L•J 1,5 ~~ tTiO '"0 2 ë: '-C x t!1 @ 5 10 15 20 ••1 • 1 1 1 •• • • • •• •• •• • • 0 01 0,5 2,5 C/.l 3 3,5 4-1- 4,5 •• •.• • 5 1 10 1 • •• • • • • • 2,5 • • • •• + 3 • • • • 3,5 4 15 1 20 1 Cu (kPa), S24 0 10 15 20 01 • 1 1 1 1 1,5 2 2,5 3 3,5 4 •+ • • • •• l+ • 5'•• 5,5 6 6,5 4,5 5,5 5 10 15 20 01• 1 1 1 • 1 2 2,5 3 3,5 •• + •• •• • • •• • •• • ••• •• •• ••• + + 1 Cu (kPa), SlO Cu (kPa), S13 0 0 5 0,5 • • • • 5 • • 5,5 6 6,5 0,5 1 1,5 2 • • 2,51. 2,5 • 3 • • l. 3,5 3 • 4 5 • 6 tl') ~ :::::, :;2 7 z (m) 7 z(m) 7 z(m) 7 z (m) 10 15 20 • 1 1 1 1 • • • •• • • • • •• • • • • • • • • •• • 4 • • 4,5 • • • • • • • 5,5 5 • 3,5 • 6,5 t:::l ~ 20 0 4,5 4,5 15 i*• • • • • 1,5 -1-+ • 2 • 4 • 10 o.• • 6 6,5 •• ••• 1,5 • 5 0 0,5 • • • • • • • • • •• • • • • 4,5 Cu (kPa), S2 5 0,5 • 2 6 6,5 • 1,5 5 5,5 • • 1 1-1-+ :;v : C/.l Cu (kPa), S21 Cu (kPa), S16 ~q 7 z ( m) Fig. 3-3- Coupe stratigraphique de la cohésion intacte (Cu) des sondages de l'axe I à la même profondeur, par rapport au fond de la retenue et le long d'un même axe. 5 5,5 6 6,5 7 z(m) • • • • • • • •• • • • • gw l!J' 1 A.xi1 1 1 0 ~§ trJ,"' ()p. P.;:o Z>-3.0~ go enZ ven >~ t3:j r'> p.r' Cûnat, û}J,û)p (%). ronat, û)J,û)p (%), ronat,roJ, rop (%), ronat,roi,û)p (%), ronat,rol,rop (%), ronat,roJ,û)p (%), S2 SlO S13 S16 S21 S24 0 0 l' 50 1 1 ë3 m :: \C \C -' l'J en 2,5 +<> J 3,5 <> <> ~ <>~ 2,5 J <> ~ J,5 •>.~..8 4,5 5 ~ 7 z (rn) ~ ~ 4,5 ~~ 5,5 1 ë Wl.& Wp 6,5 4,5 8 5 5 7 z (rn) Wp ~ 100 11 <> <> <> 0 <>~ 6 ~ ~ 1,5.1 2 ~§ 7 z (rn) "'Wp 7 z (rn) 0 50 100 lx' •• 1 0 <> <> ~ 1 <> <> <> <> ~ 1,5 *u ~ 2,5 ~ 3 <> ~ 3,5 4 4,5 5 3,5 (> <> ~ 4 <> <> <> 4,5 <> ~ 5 <> ~ 5,5 <>w • Wl • 'Wp <> <> <>~ ~ J. • ) ~ <><> g <> <> <> 5,5 <>1 <> w nat. • WJ A Wp <><> <> **> <> <><> <> <> <>% 1 *~ 1 <>w nat. 6 6,5 7J. z (rn) • W1 1 "'Wp ~ ~ ~ '-l ;t:: 100 1 1 <> <><> <> 3 50 JI 1 11.1 1 Il 0,5 <> <> 2,5 nat. 6,5 •• 1 nat. • Wl 0 01 11 0,5.~ 5,5 < :> w 6,5 '1 4 <> 5,5 • W l 3,5 ~ nat. na t. 3 • <> <> <> <>w <>\V 2,5 <> 3,5 <> 2 <>(> J <> 5,5 t;:, 2,5 ~ 5 6,5 ~ ~ 1,5 $<> <>.: <> <> <> 2 <>8 8 6+ 1,5 ~ ~ g<> 4,5 ~..<>. ~ 1 **~ <> 2 <> ~ ~ g 0,5 ~ 50 01''"1'.<> 0,5 ~ 1,5 0 100 0 l'' '':k'' ''1 :.". s<> 8 2 1 ~ ~ & 1,5 11 50 0 100 01''"1" 0,5 <>•<> mo 'V 50 0 1!t <> tr1 riO 100 1 1 1 1,<><> 0,5 :::0 trîv,trJ men Z'V ','<' Fig. 3-4 -Coupe stratigraphique de la teneur en eau naturelle (ü) nat) et des limites d'Atterberg (ro 1 et ro p) des sondages de l'axe I à la même profondeur, par rapport au fond de la retenue et le long d'un même axe. AXEl -La profonfeur d'eau du sondage S24 est prise comme référence Cu (kPa), S24 0 5 10 15 20 - - r - - - - - - r - 0+-+-+-+--1 2 Cu (kPa), S16 0 0 5 10 15 20.1 1 1 Cu (kPa), S13 1 or 0 1 Cu (kl'a), S10 4 0 5 10 15 20 5 10 15 20 1 () 2 Cu (kl'a), S21 0 5 5 10 15 2( 2 0 3 6 1 4. 7 z (m) 2 4 3 5 '• 3 5 4 Cu (kl'a), S2 6 ~. 0 5 10 15 20 4 7 3 2 0 6 5 z (m). 5 6 2 /: • 7 3 z (m) * 7 z (m) 6 7 z (m) : 4 5 6 z (m) 7 Fig. 3-5 - Coupe stratigraphique de la cohésion intacte (Cu) des sondages de l'axe I, par rapport au niveau du plan d'eau, relativement au fond de la retenue et le long d'un même axe. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETEN(OE 100 B.MEKERTA 3.3.3 - Relief du fond de la retenue Afin de préciser le relief du fond de la retenue, nous avons tracé à l'aide du même logicielles courbes de niveau du fond actuel de la retenue en plan et en surface. Le tableau 3-III et les figures 3-6 et 3-7 résument les tirants d'eau et les élévations de la surface des sédiments pour les différents sondages, par rapport au fond de la retenue qui se trouve à 100 rn de profondeur. Dans le tracé des courbes à l'aide du logiciel Sl)RFER, on utilisera les notations suivantes: -V. F, cmTespond à la vidange de fond; -V. 1/2 F, correspond à l'évacuateur de demi-fond. N° Sondage Pe (tirant d'eau en rn) SI S2 S3 S4 S5 S6 S7 S8 S9 S10 Sll Sl2 S13 S14 S15 S16 S17 Sl8 Sl9 S20 S21 S22 S23 S24 S25 37,81 41,81 37,81 50,86 49,81 49,91 38,91 39,91 38,26 36,81 38,81 37,81 35,81 35,81 36,31 35,05 38,11 44,58 45,03 48,20 37,80 44,80 36,80 32,08 33,60 Ps (élévation de la surface des sédiments en rn) 62,19 58,19 62,19 49,14 50,19 50,09 61,09 60,09 61,74 63,19 61,19 62,19 64,19 64,19 63,69 64,95 61,89 55,42 54,97 51,80 62,20 55,20 63,20 67,92 66,40 au 3-III- Tirants d'eau mesurés lors des sondages et élévations de la surface des sédiments. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETENUE l OI B.MEKERTA ;::.: 123400--i----*-----_j______ j 1 1,_ J ~ -\--t,.;:.: _____________ ~' i ~ '-' ~ ""' : > i*,_ ;:: 123350-i 63.7 " i ( 123300-j 1-!. -------**--. Fig. 3-6 -Courbes de niveau en plan du relier du fond de la retenue. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA R R GA 'V'/ ~> x '<~;-~,~;::.;.**.~*~~-~/~ ;x Çi;-{~~>:;:~---~>- 1 )<;>:,.- "'>~ *~~~~;:;~;,~~~?{~~! / V.F _.,,'•, 1, *.~~,~~t'~/\: -_<:~S-- 1 l ~~,~~ y- RIVE DROITE Fig. 3-7 - Relie!' du fond de la retenue. Il convient de prendre en compte le relief du fond de la retenue, puisqu'une éventuelle succession de creux et de bosses pourrait créer des piéges à sédiments, modifiant par endroits l'ensemble des propriétés géomécaniques mesurées. Il pourrait également y avoir formation de courants de fond si la pente s'avérait trop importante, d'ol! remaniement posté1ieur au dépôt. A noter, que le relief du fond de la retenue est in!luencé par les opérations de dragage qui étaient en cours dans la retenue de Génissiat (2.2.4). Il apparaît ainsi plusieurs creux assez marqués, notamment : -sondages S4, S5, S6 ; ol! le tirant est en moyenne de 50 m ; -sondages Sl8, Sl9, S20 et S22; oll le tirant est en moyenne de -1-5 m. On distingue aussi des bosses peu marquées : -sondages S24, S25 et Sl6; ol! le tirant est en moyenne de 33 m. On a essayé de comparer quelques propiiétés géomécaniques. à savoir la cohésion intacte et la teneur en eau naturelle correspondant à des bosses et à des creux. La comparaison des différents graphiques (annexe 5) montre une grande variahilité des propriétés géomécaniques à la même profondeur et est donc peu concluante. A titre d\~xempk on montre sur les figures 3-8 et 3-9, des coupes stratigraphiques de la cohésion intacte au pic (Cu) et de la teneur en eau naturelle (W 11 at) des sondages S4, SS et S6 correspondant à un creux. Ces différentes voies explorées avaient pour hut d'essayer d'expliquer si réellement il existe une relation entre les propriétés géomécaniqucs ct la position des sondages, et de dégager l'int1uence du relief du fond de la retenue. La comparaison visuelle des différents graphiques ne dégage aucune tendance claire. 3- REPARTITION SPATIALE DES PROPRIEïï:S Gl~OMJ':CANIQUES DANS LA RETI:Nt 11-: 103 B . MEKERTA 1 Cre ux , S4-SS-S6 -La profondeur d'eau du sondage SS est prise comme référence Fig. 3-8 - Coupe stratigraphique de la cohésion intacte (Cu) des sondages S4, S5 et S6 correspondant à un creux. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETENUE 104 B.MEKERTA 1Creux, S4-S5-S6 Wi(%),SS Il 50 25 {1 511 25 0 1,5 2 + • • • • • • •• • • • • 5,5 6 6,5 + • • • • • • • • + • • 1,5 • 2 2,5 3 75 • 0,5 + 100 • 1,5 • • 2 • • • • • • 2,5 • • 3 • • 4 4 4,5 4,5 5 5 • • 511 25 Il • 3,5 • • • • • 4 5 • • 3,5 • • 3,5 4,5 1110 • • • 2,5 3 11,5 75 • 11,5 1 • (%), S6 û)Ï 1110 0 Il wi (%), S4 75 5,5 • 5,5 • • • • •• • • ••• 6 6 6,5 6,5 7 7 z (m) z (m) 7 z (m) Fig. 3-9- Coupe stratigraphique de la teneur en eau naturelle (Wj) des sondages S4, SS et S6 correspondant à un creux. Nous avons tracé sur la figure 3-10 trois profils longitudinaux elu tirant d'eau en fonction de l'éloignement du barrage (coordonnée Y). Le premier a été dressé sur la rive droite en regardant le barrage, le deuxième a été dressé au centre et le troisième à gauche. On constate que le profil central présente un tirant nettement supérieur à celui des profils latéraux, le tirant d'eau est clone plus élevé au centre que sur les côtés de la retenue. 3- REPARTITION SPATIALE DES PROPRIETES GÉOMÉCANIQUES DANS LA RETENUE 105 B.MEKERTA 123100 123000 122900 123200 123400 123300 20 Barrage 30. 40 y • • • • <> • <>. • • droite <><> 50 - • <> •• <> <> <> centre • gauche 60 Tirant d'eau (m) Fig. 3-10 - Tirant d'eau. 3.4 - Paramètres statistiques et courbes d 'isovaleurs des propriétés géomécaniques Nous allons maintenant étudier chacune des propriétés essentielles, caractérisée par ses principaux paramètres statistiques, à savoir : N (nombre de mesures effectuées), min (valeur minimale), max (valeur maximale), moyenne, variance, écart type, coefficient de variation et la médiane. La vmiance et la médiane nous précise la fiabilité apportée à une analyse uniquement basée sur la moyenne, elles nous aide à répondre aux questions suivantes : -la moyenne est-elle représentative de la population? ; -existe-t-il des valeurs aberranles? (médiane notablement distincte de la moyenne); - les valeurs sont elles bien regroupées autours de la moyenne? (variance élevée ou non). Puis à partir des résultats obtenus, nous essaierons de définir des tendances d'évolution du paramètre mesuré sur l'ensemble du plan d'eau. Pour cela, nous.étudierons la moyenne en fonction de l'abscisse (notée X) et de l'ordonnée (notée Y). A titre indicatif, nous donnerons le coefficient de corrélation linéaire entre la variable mesurée et chacun des deux paramètres spatiaux. Enfin, nous tracerons les courbes d'isovaleurs des propriétés géomécaniques essentielles soit en plan soit en surface. Nous donnons en annexe 6 (DEVESE, 1994), les tableaux des paramètres statistiques de chaque vmiable (propriété géomécanique) pour chaque sondage. Les vmiables prises en considération sont: Cu, Crés, COi, Crem, Yd et 3.4.1 - Cohésion non drainée au pic Cu Les figures 3-11 et 3-12 montr ent l'évolution de la cohésion moyenne en fonction des coordonnées X et Y. La figure 3-11 fait apparaître que près de la rive droite les valeurs sont très variables d'un sondage à l'autre ; par contre. au milieu de la retenue on observe une diminution progressive de la cohésion moyenne en fonction de l'abscisse X ; la relation linéaire Cu moyenne-X donne un faible coefficient de cmTélation (R = 0,23). La figure 3-12 montre que la cohésion moyenne augmente lorsque l'on s'approche du pied du barrage. Les sondages allant de Sl6 à S25 montrent une dispersion importante de la cohésion moyenne (de 3,5 à 8 kPa), mais les sondages Sl à Sl5 mettent en évidence une diminution réelle de la cohésion moyenne lorsque l'on s'éloigne du barrage ; la relation Cu moyenne-Y donne une cmTélation un peu plus élevée que dans le cas précédent (R = 0.49). 9 8 7 6 • 5 • 4 • 3."-. 2 1 y Barrage o+----------4----------~--------~~--------~--------~ 122900 123000 123200 123300 123400 123100 Fig. 3-12- Vmiation de la cohésion moyenne en ronction de l'ordonnée Y. RETENUE En ce qui concerne la valeur absolue de l'écart entre moyenne et médiane, on constate une répartition cohérente dans l'espace. Pour les sondages allant de S 1 à S 15, l'écart diminue progressivement de 1,5 à 0 kPa. Par contre, cet écart augmente de Sl6 à S25, passant de 0 à 2,8 kPa. On peut donc dire que la zone centrale comporte de nombreuses valeurs abetTantes, contrairement aux zones amont et du pied du barrage (sauf pour le sondage S 17 qui correspond à un carottage effectué dans une cicatice de dragage récent). Les coeftïcients de variation observés sont relativement dispersés, comme le montrent les figures 3-13, où on a représenté les vmiations de ces coefficienL~ en fonction des coordonnées X et Y. Un grand nombre de sondages ont des coefficients de variation compris entre 40 et 60 %, les plus fortes valeurs cmTespondent à la zone centrale (S 1, S3, S4 et S25) et au pied du batTage (S 17). 100 Cu (coeficient de variation, %) • 80 100 Cu (coefficient de variation, %) • • 80 • • 60 40 • • • • • •• • • • • •• • • •• •• 60 • 20 • • • • • •• 40 • • • • • • • •• • 20 Rive droite Rive gau che Barrage 0 +-t--r-,--,r-t---r--r--r-r-t-r-r-T"""T-t-,,.-,-.,-1 868900 868950 869000 123400 x () +-r,,-.-t-r--r-r--r-t--r-1-r-,.-i--r-r--r-lr-f--T--r-r-r-l 9050 869100 122900 L23000 123100 123200 123300 Y Fig. 3-13- Coefficient de variation de Cu en fonction des coordonnées X et Y. Sauf pour les sondages S 17 et S7 très superficiels, la profondeur d'exploration varie de 3,35 m (S5) à 6,45 m (S4). Il nous a semblé intéressant de subdiviser les sondages en plusieurs tranches de profondeurs et de déterminer à chaque fois la cohésion moyenne. Les figures 3-14 à 3-17 montrent l'évolution de la cohésion moyenne ptise à une certaine profondeur en fonction des coordonnées X et Y (entre 0 et 1,5 m ; 1,5 à 3 m ; 3 à 5 m et supérieure à 5 m). Ces figures montrent que la cohésion moyenne entre 0 et 5 men fonction des coordonnées X et Y posséde une grande variabilité; toutefois, il existe une assez bonne corrélation pour des profondeurs supérieures à 5 m, comme cela est confirmé dans le tableau 3-IV. .!. • •• 7 6 • • 1 5.!!! 1 • 1!.!. •.!. 3 1. 1 2 869100 • •• •• •• 1 869100 0 0 868900! 4.!. 2 Cu moyenne (kPa), (1,5-3 m) 868950 869000 x 869050 868900 868950 869000 869050 x Fig. 3-14- Cu moyenne (entre 0 et 1,5 met de 1,5 à 3 m) en fonction de X. 3- RÊPARTITION SPATIALE DI:S PROPRIÙTI~S GÉOMÉCANIQUES DANS LA RETENlm 108 B.MEKERTA Cu moyenne (kPa), (0-1,5 m) 6 5.1 9 • 8 1 7 1 1 4 6 •~* • • 1 1 3 • 2 1 •• 4 1 •• 1 123400 0+-r-r--r-r-+-r-r-r-r-+-r-,-,.-ll-r-,,,-i--'lr-r-,-,rl 123100 123200 y 123300 1 1 1 'i 1 1 2 1. 123000 1 •• 1 3 1 1 • • 5 1 122900 Cu moyenne (kPa), (1,5-3 m) • 1 1 123400 0+-rr+T~rr+T~rr+T~rr~~~ 122900 123000 123100 123200 123300 y Fig. 3-15- Cu moyenne (entre 0 et 1.5 met de 1,5 à 3 m) en fonction de Y. 10 16 Cu moyenne (kPa), (3-5 rn) 12.1 1 1 1 10 • • 1.• 14 1 8 6 Cu moyenne (kPa), (sup 5 rn) 1 1 1 4 • 1 Il • 8 6 1 1 1 •• Il 1 4 1 2 869100 1 1 1 1 2 869100 0 0 868900 869000 868950 x 869050 868900 868950 869000 x 86 9050 Fig. 3-16- Cu moyenne (entre 3 ct 5 met à plus de 5 m) en fonction de X. 10 Cu moyenne (kPa), (3-5) rn 16! ~ 1 4 ~ • 1 1 1 1! 8 • 6 1 • 4 1 2 123400 0 122900 1 1 • 1 1 1 10! 1 1 Cu moyenne (kPa), (sup 5 rn) 1 1 1 1 1 1 1 1 1 2 123400 0 123000 123100 123200 123300 y 122900 123000 123100 123200 123300 y Fig. 3-17- Cu moyenne (entre 3 ct 5 m ct à plus de 5 m) en fonction de Y. Cu moyenne (kPa) entre 0 et 1,5 m entre 1,5 et 3 m entre 3 et 5 m supérieure à 5 m Coefficient de COITélation (R) x y 0,32 0,30 0,08 0,51 0,48 0,24 0,17 0,76 Tableau 3-IV- Vmiation du coefficient de côiTélation de la cohésion intacte moyenne en fonction des coordonnées X et Y. On montre sur les tïgures 3-18 à 3-21 les courbes d'isovaleurs des cohésions moyennes en plan et les surfaces correspondantes en fonction des coordonnées X et Y des sondages, mais en prenant les valeurs des cohésions moyennes à plusieurs profondeurs; respectivement entre 0 et 1,5 m ; 1,5 et 3 m ; 3 et 5 met à plus de 5 m. On peut noter qu'entre 0 et 1,5 m ainsi qu'entre 1,5 et 3 mon trouve des valeurs élevées de la cohésion au pied du barrage (S 16, S 17, S 18, S 19, S20, S21 et S22), de l'ordre de 5,5 kPa entre 0 et 1,5 m et de 8,5 kPa entre 1,5 et 3 m. En s'éloignant du barrage (entre 0 et 1,5 m), on observe une oscillation des valeurs entre 2 et 3 kPa. Ceci montre que, dans la couche superficielle considérée, les valeurs sont différentes d'un point à l'autre. Mis à part les sondages S5 et S6 correspondant à un creux et qui ont un comportement particulier avec une cohésion intacte moyenne de 6,5 kPa, on remarque une diminution réelle de la cohésion avec l'éloignement. Cependant, entre 3 et 5 m, on observe de fortes variations de la cohésion moyenne dans la retenue avec une valeur supérieure de l'ordre de 10 kPa. Quant aux valeurs de la cohésion moyenne à plus de 5 m, on retrouve de fortes valeurs de co on au pied du ban*age et une diminution de la cohésion avec l'éloignement. Ces différentes observations sont intluencées par la variation du relief du fond de la retenue, des opérations de dragage en cours et par les différences de profondeurs des divers sondages qui conduit sur certains d'entre eux à un manque de données. RETE B MEKERTA Ë L :::: 123350-~ L8 i 1 ~ 3- REPARTITION SPATIALE DES PROPRIETES GJ~OMJ~CANIQUES DANS LA RETENlll~ Ill B.MEKERTA Ë 123400-~----*---'------,-L--- i'- \ \ ~ 123350--) ::::: ""' - * 2.2 -> ::::: 1 123300-i : i L 1! i l 1 ~- 123100~ '\ \\ / // f ,*.5 i 122900~ 868900 / \'; E. 1/2 F 0,--'--,-----;-!---+ 1 868950 869000 i 869050 869100 BAIOEA <;t~ ~ V . F __. -ç:>__,- ; s:s <§ $ RIVE DROITE :;5>-; Fig. J-1 t)- Courhcs d'isovaleurs en plan des cohésions intactes moyennes entre 1,5 cl 3 m cL surface coiTespondantc. 3- RI::PARTITION SPATIALE DES PROPRIETI:S B.MEKERTA GI~OMJ':CANIQUES DANS LA RETENUE 112 Fig. 3-20- Courbes d'isovakurs en plan des cohésions intactes moyennes entre 3 ct 5 m c t surracc correspondante. 3- REPARTITION SPATIALE DI~S PROPRIETES Gl~OM!~CANIQUES DANS I.A RETI:Ntll: 113 B.MEKERTA \ 'v "''4-:5 i: -:::: BARRAGE Fig. 3-21 - Courhes d'isovaleurs en plan des cohé-sions intactes moyennes à plus de 5 m de profondeur el surface coiTespondanLe. 3- REPARTITION SPATIALE DES PROPRIETES B.MEKERTA GI': M :CANIQUI:S DANS LA RETENUE 114 3. 4.2 - Cohésion résiduelle Crés La moyenne présente une allure particulière lorsqu'on étudie ses variations vis-à-vis des coordonnées X et Y des sondages (voir tïg. 3-22). Pour les sondages implantés au pied du barrage (les sept premiers sondages Sl6, S17, S18, S19, S20, S21 et S22), on assiste à une relative oscillation des valeurs entre 1,5 et 2,5 kPa. Pour les sondages suivants ; S23, S24, S25, Sl, S2, S3, S4, S5, S6 et S8, l'oscillation se fait entre 1,4 et 1,9 kPa. Enfin, pour les autres sondages, les plus en amont du barrage (S9, SlO, Sll, S12, SB, S14 et S15), il n'y a pratiquement plus d'oscillations ; on a une courbe qui descend régulièrement de 1,4 jusqu'à 0,9 kPa. Il est donc logique d'obtenir un coefficient de C01Télation assez élevé sur Y (R =0,54), vis-à-vis de celui sur X (R =0,30). Crés moyenne (kPa) 3 ~ 2,5 • 1,5 •.• 2 • • • • • • • • • •• • • • • 0,5 Rive gauche Rive droite o +------------4------------4-------------~----------~X 868900 3 868950 869000 869050 869100 Crés moyenne (kPa) 2,5 2 1,5 0,5 Barrage 0 +-----~--~---------+--------~----------~------~ y 122900 123000 123100 123200 123300 123400 Fig. 3-22- Crés moyenne en fonction des coordonnées X et Y. De même pour la cohésion résiduelle, on remarque que les coefficients de variation sont dispersés et se trouvent inégalement répartis dans la retenue, comme le montrent les figures 3-23. Les médianes ne diffèrent pas beaucoup des moyennes ; cependant la valeur absolue de l'écart entre la moyenne et la médiane est relativement élevée pour les sondages S 1, S3, S 17 et S 18, avec une valeur maximum de 1 kPa environ (S 17). 3- REPARTITION SPATIALE DES PROPRIETES GÉOMI~CANIQUES DANS LA RETENUE 115 B.MEKERTA 100 80 • • 60 40 100 Crés (coefficient de variation, %) Crés (coefficient de variation, %) • •• • • ••! 80 • • 868950 40 • • • • • •• • 20 Rive droite 0 868900 • • • 60 • • • • • • • 20 • • • •, • • • • • • •• • Rive gauche 123400 Barrage 0 869050 869100 122900 123000 123100 123200 123300 y x 869000 Fig. 3-23- Coefficient de vmiation de Crés en fonction des coordonnées X et Y.
8,101
57ba2aab6fcfaff020681dd64972e7db_1
French-Science-Pile
Open Science
Various open science
2,007
L'autonomie de collégiens présentant un retard mental : ses conditions de possibilité en éducation physique et sportive
None
French
Spoken
7,185
12,038
L’autonomie des collégiens présentant un retard mental : ses conditions de possibilité en éducation physique et sportive Jean-Pierre Garel To cite this version: Jean-Pierre Garel. L’autonomie des collégiens présentant un retard mental : ses conditions de possibilité en éducation physique et sportive. Reliance, 2007, 24, pp.36-48. �10.3917/reli.024.0036�. �hal01947603� HAL Id: hal-01947603 https://inshea.hal.science/hal-01947603 Submitted on 7 Dec 2018 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. L’autonomie de collégiens présentant un retard mental : ses conditions de possibilité en Éducation physique et sportive Jean-Pierre Garel Cnefei (Centre national d’études et de formation pour l’enfance inadaptée) Laboratoire Relacs, Université du Littoral Côte d’Opale Conquête participant à l’accomplissement de soi et source légitime du pouvoir des sociétés fondées sur la citoyenneté, l’autonomie de l’individu est un enjeu éducatif majeur, souligné dans les textes officiels de l’Éducation nationale, et un élément central de l’idéologie individualiste actuellement très prégnante, dont témoigne la promotion de comportements appelés à faire de chacun l’acteur et l’auteur de sa propre histoire : « Faire preuve d’autonomie, s’investir dans des projets, manifester son sens des responsabilités, prendre des risques, voilà ce qui nous est demandé. »1 La réponse que des personnes en situation de handicap peuvent apporter à cette demande risque d’être décevante en raison de leurs difficultés propres et des contraintes extrinsèques qui les majorent. Pour elles, l’enjeu de l’autonomie ne s’apprécie pas seulement au regard de finalités éducatives valables pour tous et par rapport à une idéologie actuelle. Plus spécifiquement, il s’agit d’un « enjeu existentiel qui questionne l’inscription effective de la différence dans le monde commun »2. On comprend donc que l’autonomie soit au cœur des principes de l’action en direction de ces personnes. Elle conditionne leur participation sociale et suppose que la société s’emploie à créer les conditions de son développement. À cet égard, l’école a une responsabilité de premier ordre, que nous questionnerons à propos de l’EPS et d’une population déterminée, envisagée dans un contexte particulier, en nous appuyant sur une étude conduite au collège Pierre Mendès France, à Riom (63) 3 : dans quelle mesure l’enseignement de cette discipline peut-il contribuer à l’autonomie d’adolescents présentant un retard mental et qui sont scolarisés dans un collège ordinaire ? 1 Kokoreff M. et Rodriguez J. (2005), « Une société de l’incertitude », « Sciences Humaines, Hors-série n°50, p.7. 2 Pierron J.-P. (2007), « L’autonomie dans la dépendance : le libre choix des personnes en situation de handicap », Bulletin d’informations du CREAI Bourgogne, n° 266, p.10. 3 Voir Garel J.-P. (2001), Des collégiens parmi les autres. L’intégration en éducation physique et sportive d’élèves présentant un handicap mental, Doc. audiovisuel, 40’, Édit. de l’INS HEA. 1 1. La reconnaissance des collégiens présentant un retard mental L’autonomie d’un individu demande qu’il se reconnaisse et soit reconnu comme un sujet capable d’agir de lui-même et disposant de droits. La reconnaissance de son identité en est un préalable. 1. 1. Reconnaître l’identité L’identité que chacun se reconnaît, l’histoire qu’il se raconte sur ce qu’il est, la représentation qu’il se fait de lui-même, en un mot l’« identité pour soi », est liée à l’ « identité pour autrui »4. En d’autres termes, elle appelle un regard extérieur, sollicité dès la première étape du parcours de la reconnaissance tracé par Paul Ricœur 5 , celle de l’identification de l’individu, de sa distinction parmi les autres. Quand on cherche des références aux élèves présentant des troubles importants des fonctions cognitives6 dans les documents destinés aux enseignants d’EPS en poste dans les établissements scolaires ordinaires, on est surpris de constater leur quasi-absence, particulièrement si on circonscrit la recherche aux sources institutionnelles de l’Éducation nationale : parmi les trentedeux sites académiques dédiés à cette discipline sur le web, deux seulement évoquent succinctement ces élèves. C’est sans commune mesure avec la documentation pédagogique que l’on peut y trouver concernant les élèves présentant une déficience motrice ou visuelle. Et dans un récent dossier élaboré par le Groupe ressource pour l’intégration des élèves à besoins spécifiques de l’Académie de Grenoble, publié dans la revue EP&S, pas une ligne n’est consacrée à cette population7. Pour reprendre le titre du rapport présenté lors de la « Journée européenne des Personnes handicapées », le sept décembre 1995, on a affaire à des « citoyens invisibles » ; ce qui est étrange au regard de la présence effective des élèves identifiés comme porteurs d’une « atteinte intellectuelle ou mentale » dans les statistiques de l’Éducation nationale. Par rapport à l’ensemble des élèves en situation de handicap qui sont scolarisés dans des établissements scolaires ordinaires, ils sont en effet très nombreux : dans le premier degré, ils constituent 89% des effectifs de Clis (Classe d’intégration scolaire) et 39% des intégrations individuelles ; en collège, ils représentent 74 % des élèves d’UPI (Unité pédagogique d’intégration) et 14 % des intégrations individuelles, et, en lycée, respectivement 43 % et 12 %8. Comment comprendre qu’ils soient ignorés ? Un premier élément d’explication réside peut-être dans une focalisation sur l’évaluation, notamment celle qui est requise aux examens : CAP, 4 Goffman E. (1975), Stigmates. Les usages sociaux du handicap, Paris, Ed. de Minuit. Ricoeur P. (2004), Parcours de la reconnaissance, Paris, Stock 6 Depuis la circulaire n° 2001-035 du 21 février 2001, « handicap mental » fait place, dans les textes officiels de l’Éducation nationale, à la dénomination « troubles importants des fonctions cognitives ». Selon la circulaire, ces troubles peuvent tenir à « un retard mental global, à des difficultés cognitives électives, à des difficultés psychiques graves... « 7 « Une intégration réussie en EPS : utopie ou réalité ? » (2006), Dossier, Revue EP&S., n° 139, p. 15-51. Ce dossier se décentre toutefois des déficiences motrices et sensorielles en évoquant l’EPS avec des adolescents phobiques. 8 Repères et références statistiques, MEN, Édition 2006, p. 27, Disponible sur : http://media.education.gouv.fr/file/31/8/2318.pdf 5 2 BEP, baccalauréat. L’EPS a construit sa légitimité dans l’univers scolaire en partie sur la notation à laquelle elle donne lieu à cette occasion, y trouvant de quoi conforter son statut de discipline d’enseignement à part entière, obligatoire pour tous, plus ou moins à l’abri des tentatives de soustraction à la tutelle du ministère de l’Éducation nationale, qui viseraient à en faire une pratique sportive comme les autres, confiée à des personnels moins formés et plus économiques pour le budget de l’État. Le souci de l’évaluation en EPS est particulièrement prégnant dans le second degré. Quand on considère les productions relatives aux élèves à besoins spécifiques en EPS, disponibles sur les sites académiques, on remarque l’omniprésence de l’évaluation, qui constitue d’ailleurs bien souvent une demande prioritaire d’information et de formation des enseignants concernant ce type d’élève. Au point que l’on peut se demander si un enseignement qui n’ouvre pas, à plus ou moins long terme, sur la perspective d’une évaluation à un examen, comme c’est a priori le cas des adolescents présentant un retard mental, ne s’en trouve pas dévalorisé et négligé. L’éducation physique de ces jeunes ne suscite pas d’intérêt. À notre connaissance, elle n’est jamais un thème central de la formation continue des professeurs au niveau des Académies. Les élèves que l’on n’a pas à évaluer aux examens n’auraient-ils donc pas d’existence ? Une seconde explication possible au manque d’intérêt qui leur est porté, dans le domaine de l’EPS, tient peut-être aussi à une absence d’altération physique manifeste. En effet, une incapacité est souvent inférée de la visibilité du handicap. Pourquoi se mobiliser pour faire face à des difficultés et des personnes qui sont ignorées ? L’aspect souvent peu spectaculaire des problèmes physiques d’élèves avec un retard mental, par rapport à d’autres handicaps, ne devrait pas conduire à les sous-estimer, pas plus que les problèmes affectifs ou relationnels qui sont également parfois présents. Les connaissances des troubles pouvant accompagner tel ou tel type d’altération mériteraient d’être introduites dans la formation des enseignants. Elles sont précieuses en ce qu’elles attirent l’attention du professeur sur des difficultés qu’il est susceptible de rencontrer et dans la mesure où elles ne construisent pas chez lui des représentations figées. On doit en effet éviter d’assigner les personnes à des catégories (trisomie, autisme…) dont tous les membres seraient prétendument identiques et fondamentalement différents des personnes « normales ». Même si beaucoup d’individus faisant l’objet d’une même désignation partagent des caractéristiques semblable, ce qui les distingue des autres est moins fort que ce qui les réunit. En l’occurrence, nous considérons les élèves de l’UPI de Riom davantage comme des collégiens que des « handicapés ». Et les marques communes, sinon les stigmates, qui les éloignent de la norme ne sont pas fatalement dans leur nature : le surpoids, ou l’obésité, de l’adolescent trisomique n’est pas inévitable. Reconnaître l’identité des collégiens en situation de handicap mental appelle une connaissance nuancée, dénuée de préjugés, de leurs possibles difficultés ainsi que de leurs capacités. 1. 2. Reconnaître les capacités La seconde étape de la reconnaissance abordée par Paul Ricœur porte sur la « capacité de faire arriver des événements dans l’environnement physique et social » 9 , une dimension qui approfondit l’identité du sujet, puisqu’il est notamment définissable par ce dont il est capable et ce qui lui est imputable, et qui est fondamentale dans une réflexion sur l’autonomie. En effet, 9 Ricoeur P., op. cit., p.199. 3 pour éviter l’emprise de dépendances aliénantes, exprimer ses choix, faire valoir ses droits, s'engager dans des apprentissages émancipateurs en acceptant le risque de ne pas toujours réussir, le sujet doit avoir suffisamment confiance en soi et par conséquent reconnaître ses capacités. Or les capacités sont occultées dès lors qu’elles ne se donnent pas à voir faute d’être sollicitées activement, et des sollicitations ambitieuses nécessitent de croire en l’éducabilité des élèves en situation de handicap. Cette croyance ne relève pas d’un pari, au sens d’un espoir que la chance sourit, mais du constat maintes fois établi de réussites qui tiennent moins au hasard qu’à un enseignement adapté fondé sur des exigences élevées. Avancer que les objectifs pédagogiques formulés pour des élèves « handicapés » doivent être « modestes » manque d’ambition. Certes ils ne sont pas toujours identiques à ceux qui sont prévus pour les autres élèves, mais ils doivent être envisagés de façon à permettre à chacun de réaliser le meilleur de lui-même. Dire, comme nous l’avons entendu, à propos d’un élève « intégré » qu’« il n’a pas appris grand-chose mais (qu’) il était bien avec les autres », et s’en satisfaire, traduit une conception de l’intégration qui fait d’une socialisation mal comprise un objectif envahissant : socialisation et accomplissement personnel sont intimement liés et supposent des apprentissages, y compris pour devenir plus autonome. Les capacités sociales sont l’objet d’une reconnaissance particulière, l’estime sociale. Peuvent notamment y concourir les activités qui relèvent de pratiques sociales valorisées et valorisantes, susceptibles d’instaurer « du lien social et des modalités d’identité qui s’y rattachent »10. De ce point de vue et pour ce qui est de l’EPS, les activités physiques de nature sportive et artistique sont préférables à celles qui privilégient une réhabilitation orientée par une conception biomédicale de la personne. L’enseignement n’a pas pour vocation de soigner, même si, en l’occurrence, il peut avoir des bénéfices thérapeutiques. La reconnaissance des capacités passe par l’« externalisation » de ce que réalise le sujet11, la présentation de son « œuvre», source de fierté. En clair, il est intéressant que le résultat de l’activité conduite par l’élève soit donné à voir pour être reconnu par son enseignant et ses camarades, et qu’il laisse si possible une trace : sur une fiche, un cahier, à partir d’une photo, etc. Autant d’éléments objectifs qui ressortissent à l’évaluation et fournissent à l’adolescent le support objectif d’une prise de conscience de ses progrès, dont d’autres personnes, notamment ses proches, pourront prendre connaissance et sur lequel pourra se fonder une reconnaissance gratifiante12. L’évaluation d’adolescents en situation de handicap serait davantage un vecteur de mésestime de soi et de découragement que de reconnaissance si elle n’était pas adaptée à leurs possibilités. Au collège Pierre Mendès France, les élèves de l’UPI ne sont pas obligatoirement évalués par rapport aux critères appliqués aux autres collégiens. Il y a là de quoi ébranler la représentation que des enseignants se font de l’égalité. Certains sont choqués que des candidats aux examens ne soient pas soumis aux épreuves « normales », ainsi que l’autorisent, et même le préconisent les textes officiels. Dans le dossier de la revue EP&S évoqué précédemment, un professeur 10 Ricoeur P., ibid., p. 202. Bruner J. S. (1996). L’éducation, entrée dans la culture, Paris, Retz, p. 39. 12 Garel J.-P. (2006), « La reconnaissance de la capacité d’agir sur et par un corps altéré, enjeu de la construction du sujet », Éduquer, Paris, L’harmattan, p. 61-71. 11 4 s’interroge : « N’est-ce pas un problème pour l’évaluation que ces activités n’appartiennent pas à la liste nationale des épreuves évaluables en Terminale ? ». La question, qui ne concerne pas les élèves présentant un retard mental puisque, a priori, ils ne sont guère concernés par ces examens, peut traduire une attitude assimilationniste13 : l'autre, celui qui est différent, n'est pas perçu dans sa singularité et doit donc être traité comme tout le monde. A contrario, une attitude différentialiste, exagérément attentive aux différences, pourrait se manifester par des réticences à l’égard d’une pratique mixte, au prétexte que les élèves « handicapés » sont trop singuliers pour être avec les autres en EPS, et par un manque d’exigence dans l’évaluation comme dans les autres aspects de l’enseignement14. 1. 3. Reconnaître les droits Il ne suffit pas d’avoir acquis des capacités reconnues par soi-même et par les autres si les activités dans lesquelles on pourrait les exercer sont inaccessibles. Il faut aussi reconnaître le droit, pour tous les enfants et adolescents en situation de handicap, d’accéder à l’enseignement de l’EPS, parmi les élèves ordinaires autant que possible, et d’y trouver les conditions d’une pratique optimale au regard des bénéfices attendus. Encore faut-il que la proclamation de ce droit ne soit pas que formelle, qu’elle s’accompagne de droits garantissant cet accès. Il est inadmissible que des élèves soient dispensés d’éducation physique sans raison valable, que certains n’aient pas cours à cause de réticences d’enseignants ou que l’enseignement qu’ils reçoivent ne soit pas adapté, qu’un professeur doive, sans formation et sans soutien, gérer un groupe-classe devenu trop hétérogène, que les heures d’enseignement allouées soient insuffisantes, etc. Outre l’engagement des partenaires directs du professeur d’EPS (parents, personnel administratif du collège, médecin scolaire, infirmière, inspecteur...), et sans qu’il faille dans tous les cas des textes législatifs supplémentaires, la participation d’élèves à besoins spécifiques aux cours d’EPS peut appeler, autant que de besoin, des mesures qui relèvent de niveaux de responsabilité différents, par exemple : la présence de personnels secondant le professeur durant les cours (auxiliaire de vie scolaire, enseignant spécialisé….) et, plus généralement, des personnes et des dispositifs ressources ; des programmes d’activités physiques et des emplois du temps adaptés ; une organisation des enseignants d’EPS du collège qui assure la continuité et la cohérence de l’enseignement durant la scolarité de l’élève ; une dotation horaire globale de l’établissement qui comporte des heures d’EPS spécifiques ; l’information et la formation des personnels concernés… 13 Schnapper D. (1998), La relation à l’Autre. Au coeur de la pensée sociologique, Paris, Gallimard, p. 35-68. Garel J.-P. (2006), « L’adaptation des APSA à des personnes en situation de handicap : entre droit à la différence et droit à la ressemblance », Actes du forum international de l’éducation physique et du sport, 4-5-6 novembre 2005, Paris, Contre-pied, n° 18, Centre EPS et société. 14 5 2. Un enseignement organisé pour accroître les pouvoirs de l’élève Sauf à s’illusionner, la reconnaissance des capacités de l’adolescent implique qu’il en soit effectivement doté. À cet effet, l’enseignement doit être pensé de manière à lui permettre d’acquérir des pouvoirs d’action à sa mesure. 2. 1. Les groupements d’élèves L’observation des élèves de l’UPI de Riom en dehors des temps de cours, lors des repas ou des récréations, montre la diversité des relations qu’ils cherchent à établir avec les autres élèves du collège. Si certains privilégient les moments entre soi, ce n’est pas le cas de tous. Il serait imprudent de restreindre l’explication de ces choix différents à des sentiments identitaires tels que les uns se percevraient plutôt comme appartenant à un monde à part, tandis que les autres se reconnaîtraient davantage dans les collégiens « ordinaires ». D’une part, le sentiment d’appartenance à la communauté des jeunes de l’UPI peut très bien se conjuguer avec l’aspiration à être intégré dans le groupe de référence, informel, constitué par les adolescents « normaux ». D’autre part, la recherche d’interactions des adolescents de l’UPI avec les autres, pour spontanée qu’elle soit hors des temps de cours, est l’effet d’une construction à laquelle participent de multiples activités communes, organisées au sein de l’établissement scolaire : théâtre, projets périscolaires, ateliers du midi, association sportive, actions de tutorat menées autour de l’enseignement de langues étrangères15, et certains cours en commun, dont l’EPS Dans cette discipline, certains élèves de l’UPI sont en situation d’intégration individuelle parce qu’ils adhérent à ce projet de scolarisation, que leurs compétences sociales sont un facteur favorable, et souvent aussi par ce qu’ils retrouvent en EPS des camarades avec lesquels ils partagent, ou ont partagé, d’autres activités, par exemple au sein d’un atelier de la Segpa. Les capacités physiques sont un critère appréciable mais pas déterminant. Dans ce collège, c’est la situation d’intégration collective qui est privilégiée : deux heures par semaine, les élèves de l’UPI participent aux cours d’éducation physique au sein d’une classe de cinquième. Par ailleurs, ils ont une heure hebdomadaire d’EPS durant laquelle ils ne sont qu’entre eux et qui permet de prendre en compte leurs spécificités : pratiquer une activité qui s’avère très difficile en situation d’intégration ou une autre qui répond à un besoin particulier. Lors des cours d’EPS avec les élèves « ordinaires », il ne s’agit pas d’une pratique côte à côte, où les adolescents de l’UPI, engagés dans des activités à part, n’auraient pas d’interaction avec leurs camarades de cinquième, mais bien d’une pratique mixte : les groupes de travail comprennent les uns et les autres, dans les équipes de jeux collectifs comme pour d’autres activités. Pour répondre à un besoin de repères stables chez les élèves, ils peuvent demeurer identiques durant un cycle de cours consacrés à une même acticité. D’autres critères que la mixité pourraient présider à la constitution des groupes, par exemple les affinités entre élèves, l’âge ou le niveau de pratique. 15 Galerin L., Guillot G., Boyer J.-P. (2003), « Apprendre ensemble au collège », in Belmont B. et Vérillon A., Diversité et handicap à l'école Quelles pratiques éducatives pour tous ? Paris, CTNERHI/INRP. 6 2. 2. Le choix des activités Des activités sont privilégiées parce qu’elles répondent aux besoins des élèves de l’UPI, et d’autres sont évitées, dans le cadre d’une pratique mixte, en raison des problèmes qu’elles posent. Ainsi, l’insuffisance de ressources cognitives des adolescents peut les mettre en difficulté dans des activités où la réussite dépend pour beaucoup de leur mobilisation. Les prises d’information et de décision qui sont requises dans la pratique des sports collectifs, par exemple, leur sont d’autant plus difficiles qu’ils doivent agir rapidement lorsqu’ils jouent avec leurs camarades de cinquième, globalement d’un meilleur niveau qu’eux. C’est pourquoi les enseignants d’EPS du collège ont décidé de ne pas proposer, en situation d’intégration, des sports aussi exigeants, sur le plan cognitif, que le basketball. En revanche, un jeu collectif comme la thèque, qui sollicite moins les ressources qui leur font défaut, est retenu dans ce contexte. De façon générale, la compétition sportive peut être un obstacle à une pratique mixte. Dans le cadre de l’UNSS (Union nationale du sport scolaire), des élèves de l’UPI pratiquent le basketball, mais seulement lors des entraînements au sein de l’établissement, car leur niveau de jeu est insuffisant pour qu’ils soient intégrés dans l’équipe du collège engagée dans un championnat scolaire. Lors des entraînements, ils restent entre eux la plupart du temps, pour ne pas entraver la progression des autres joueurs. L’un des membres de l’équipe le regrette, mais l’enjeu de la compétition est trop fort : « On aimerait bien qu’ils participent avec nous dans les entraînements, mais on n’a pas trop le temps, parce qu’on n’a qu’une heure par semaine ; c’est peu pour faire les entraînements, pour faire après les compétitions ». 2. 3. La différenciation des tâches De même que le handicap n’existe pas en soi, indépendamment des situations dans lesquelles il peut se manifester, les difficultés d’un élève en EPS ne sont pas inéluctables. Différencier les contraintes des tâches en fonction de ses ressources personnelles ouvre des perspectives de progrès et de gratifications que l’on n’imaginerait pas a priori. Au basketball, par exemple, on peut accorder à certains joueurs un point si leur tir touche le dessus de l’anneau du panier, interdire à leurs adversaires de défendre trop près d’eux, sur tout le terrain ou lors d’un tir au panier, tolérer une « reprise de dribble », etc. Ces règles de jeu particulières facilitent l’accessibilité de ce sport et permet un meilleur équilibre des forces en présence. L’inégalité des droits propres à une activité vise l’égalité des chances. D’autres règles sont particulières dans la mesure où elles sortent de l’ordinaire, et non parce qu’elles s’appliquent à quelques-uns seulement : un professeur du collège J. Macé, à Mainvilliers (28), attribue un bonus de quinze points à l’équipe de basketball dont tous les joueurs ont marqué au moins un point. De ce fait, les adolescents « handicapés » osent tirer, d’autant que leurs camarades les conseillent pour se placer sur le terrain, les mettent en position favorable pour agir, etc. Selon l’enseignant, les élèves de l’UPI prennent ainsi « beaucoup de plaisir (…). Ils discutent énormément de leur pratique avec leur instituteur »16. 16 Témoignage de C. Grissault sur : http://www.ac-orleanstours.fr/eps/eps_adaptee/integration_eleves_UPI_en_EPS.pdf 7 L’environnement peut aussi donner lieu à des adaptations. Dans un parcours d’obstacles, il est possible de faire varier leur hauteur et la distance les séparant ; au badminton, la surface d’un terrain peut être réduite ; pour un travail d’équilibre, une poutre peut être remplacée par un banc, etc. Le petit matériel, manipulable, peut également être adapté : au mini-tennis, une raquette plus grande et des balles en mousse, plus grosses et de couleur vive, sont susceptibles de favoriser l’habileté. Ces quelques exemples ne sont qu’un aperçu des adaptations possibles17, toutes conçues à partir de l’identification des capacités et des difficultés de l’élève, puis d’une modulation des facteurs de difficulté de la tâche. 2. 4. L’attribution de responsabilités Être à l’origine d’un choix ou d’une action participe de la responsabilité personnelle et contribue à la conscience d’un pouvoir d’être cause, à une meilleure estime de soi et, in fine, à une autonomie accrue. Cet effet positif peut être renforcé si ce qui est imputable au sujet relève d’un rôle socialement reconnu, dont il a à répondre devant les autres et qui lui vaut un regard positif s’il parvient à l’assumer. Confier des responsabilités suppose de faire confiance. Lorsqu’on s’adresse à des jeunes ayant des troubles importants des fonctions cognitives, il est légitime de se demander s’ils sont prêts à exercer celles que l’on envisage, mais il faut poser que la responsabilité s’apprend progressivement. Son niveau de difficulté, ainsi qu’un éventuel accompagnement par un tiers, sont à décider en fonction de chaque élève, pour des rôles concernant par exemple la gestion d’une activité : responsable du matériel (mettre en place et ranger…) ; observateur (au basketball, compter le nombre de tirs réussis, cocher le nom des joueurs qui marquent des points…) ; responsable de l’échauffement précédant une activité ; arbitre (plutôt en coarbitrage) ; pareur (en gymnastique), etc. Par ailleurs, la pratique effective d’une activité physique peut impliquer des rôles qui contribuent à la réalisation d'un projet commun et qui sont à la portée d’élèves ayant un retard mental. Les activités physiques artistiques (liées à la danse, au cirque…) en offrent l’opportunité. 3. L’accompagnement de l’autonomisation Dans sa conquête de l’autonomie, l’adolescent peut bénéficier des interactions avec son professeur et avec tous ceux, adultes et pairs, qui sont présents pendant les cours d’EPS. Elles méritent donc une attention particulière18. 17 Garel J.-P. (2003), «Elèves en situation de handicap : la préparation de l’intégration en EPS », Revue EP.S, n°303, p. 73-76. 18 Pour un aperçu plus large sur le rôle des interactions, voir par exemple J. S. Bruner, Le développement de l’enfant. Savoir Faire, Savoir dire, Paris, PUF, 1983, particulièrement les chapitres 10 et 11, sur les interactions de tutelle et sur Vygotski. 8 3. 1. Une communication favorisée Dans la mesure où certaines consignes peuvent être présentées par une démonstration des actions à effectuer, la compréhension est a priori moins difficile en EPS qu’ailleurs. Mais ce n’est pas le cas de toutes. Lorsqu’un élève n’a pas compris la consigne orale d’une tâche qui ne demande pas la reproduction d’un modèle gestuel, il risque d’imiter ses camarades et de s’interdire la recherche de ses propres solutions au problème posé (par exemple pour une activité d’opposition duelle ou collective). Pour se faire comprendre, il importe que l’enseignant utilise des mots et une syntaxe suffisamment simples, ce qui ne signifie pas adopter un langage infantile. Il peut recourir à des reformulations, accompagner son message oral de gestes appropriés et ne pas s’en tenir à une consigne délivrée à l’ensemble du groupe. Notamment en situation d’intégration, la consigne collective a parfois besoin d’être reprise et adaptée à un élève en particulier. Par ailleurs, dans le cas d’un travail en ateliers, des dessins représentant ce qui est à faire peuvent être disposés pour chacun d’entre eux. Les situations permettant à l’élève d’exprimer un choix sont recherchées, qu’il s’agisse de choisir un parcours à sa mesure, parmi d’autres de difficulté variable, de donner son point de vue sur la qualité d’une production lors d’une activité artistique, en l’argumentant dans la mesure du possible, etc. La prise de risque inhérente à l’expression personnelle mérite d’être valorisée, quelle que soit la pertinence de ce que qui est exprimé, car elle témoigne d’une confiance en soi favorable à l’autonomie. 3. 2. De l’auto-adaptation au guidage de l’activité Des recherches scientifiques, dont les résultats ont eu un fort écho chez les professeurs d’EPS, ont montré qu’un enseignement s’appuyant sur des démonstrations et des explications pour présenter aux élèves le comportement attendu est moins efficace qu’une stratégie consistant à les laisser rechercher la solution de façon autonome19. Dans le domaine des activités physiques adaptées aux personnes présentant un retard mental, les méthodes pédagogiques prônées vont généralement dans ce sens : elles « doivent valoriser les apprentissages qualifiés d’autoadaptatifs, c’est-à-dire réalisés à partir de milieux riches et aménagés. Dans ces situations d’apprentissage, le sujet s’auto-organise en fonction des sollicitations du milieu (…) et au regard du but de la tâche qui lui est proposé. Il construit donc sa propre motricité (…). L’apprentissage est ainsi vécu plus positivement en comparaison avec la pédagogie du modèle »20. Ces méthodes accordent une place de choix à un aménagement matériel de l’environnement conçu pour induire les comportements attendus. Par exemple, lors d’un déplacement en équilibre sur un banc, on peut obtenir un redressement du tronc et de la tête de l’élève en lui 19 Famose J.-P. (1987), « Analyse et enseignement des habiletés motrices : l’intérêt de l’approche écologique », in Laurent M. et Therme P. (dir.), Apprentissage et développement des actions motrices complexes, Centre de recherche de l’UEREPS de Marseille, p . 343-358. 20 Brunet F., Bui-Xuân G., Bluteau S., « Enseigner et animer les activités physiques adaptées aux personnes déficientes intellectuelles », in Varray A., Bilard J., Ninot G., Enseigner et animer les activités physiques adaptées, Dossier n°55, Édit. Revue EP&S, p. 140. 9 demandant de toucher des ballons de baudruche suspendus au-dessus de lui à une hauteur adaptée, plutôt que de recourir à des consignes verbales. Le fait que l’élève puisse conduire son activité hors du regard de l’enseignant et qu’il prenne par lui-même connaissance du résultat atteint, à partir d’indices concrets issus de l’environnement, concourt à son autonomie. L’intérêt de l’aménagement matériel ne doit toutefois pas conduire à méconnaître le rôle des interactions humaines dans l’apprentissage, notamment, dans le cadre des habiletés motrices, le rôle de la démonstration et des consignes d’action. Les travaux de Winnykamen et Lafont21, prolongeant ceux de Bandura, ont montré que l’observation d’autrui mobilisait des processus attentionnels, mnésiques, motivationnels et de reproduction motrice. Mais la pertinence des modalités de guidage dépend du type d’habileté à acquérir. Quand il s’agit d’habiletés dites fermées (pour des tâches effectuées dans des conditions environnementales stables, sans incertitude : danse, gymnastique, tir à l’arc…) et dont le but est de reproduire des formes gestuelles, comme en danse, le pratiquant doit fixer un schème d’action conforme au modèle. À cet effet, la démonstration explicitée du geste s’avère supérieure à l’aménagement matériel. En revanche, dans le cas d’habiletés ouvertes, correspondant à des tâches réalisées dans un environnement incertain (l’incertitude pouvant tenir à l’environnement physique, dans des activités de pleine nature, ou humain, dans les sports d’opposition), la diversification des schèmes d'action et un guidage par la connaissance des résultats se révèlent efficaces. En fait, ce type d’habileté peut aussi faire appel à des gestes techniques. Pour traiter le problème posé par une tâche, plusieurs de ces gestes sont susceptibles d’être retenus, moyennant si besoin une adaptation personnalisée. L’apprentissage peut alors bénéficier d’une démonstration de techniques pouvant convenir à l’élève, ainsi que de consignes d’actions. Les procédures de guidage apparaissent complémentaires, selon la nature de la tâche, le contexte et les caractéristiques du sujet22. 3. 3. La sollicitation de la réflexion Il s’agit là d’accompagner le retour réflexif de l’élève sur son activité, c’est-à-dire de l’aider à réfléchir sur plusieurs de ses aspects : en évaluer le résultat, identifier la procédure utilisée pour l’obtenir, puis établir un lien entre procédure et résultat pour éventuellement s’y prendre autrement et progresser. Cette démarche relève d’un objectif de méthode, « apprendre à apprendre », qui conduit l’élève à trouver les modalités et les contextes d’action qui sont les plus pertinents pour lui : au basketball, il y a plus d’une technique pour tirer au panier, et une même technique peut être abordée différemment en fonction des obstacles rencontrés lors de l’apprentissage. Cet accompagnement de la réflexion permet aussi de relativiser un échec, pas en leurrant l’élève sur ce qu’il a réalisé, mais dans le sens où le résultat de son action peut être mis en relation avec la manière dont il a agi. Il est important que l’échec ne soit pas considéré comme une fatalité liée à sa personne et à son irréductible impuissance, mais à des façons de faire sur lesquelles il a prise. Certes, le retard mental est parfois si important que la démarche 21 Winnikamen F., Lafont L., (1990), « Place de l’imitation-modélisation parmi les modalités relationnelles d’acquisition : le cas des habiletés motrices », Revue Française de Pédagogie, 92, p.23-30. 22 Lafont L., « Entre démonstration et auto-régulation. Le rôle de procédures de guidage ajustées aux caractéristiques des apprenants : interaction de tutelle, imitation-modélisation interactive et coping modèles », 7e colloque européen sur l’auto-formation « Faciliter les apprentissages autonomes », ENFA, Toulouse, 18-19-20 mai 2006, Disponible sur : http://www.enfa.fr/autoformation/ 10 préconisée bute sur des limites infranchissables, mais croire a priori que la réflexion des élèves ne doit pas être sollicitée, en raison de leurs difficultés cognitives, participerait d’une représentation propre à les enfermer dans leurs manques. Les adolescents surmontent d’autant mieux leurs difficultés que l’on s’attache à adapter la complexité des situations à analyser et les niveaux d’abstraction des messages. Dans la mesure du possible, le résultat d’une action doit être perceptible concrètement : nombre d’obstacles touchés, zone de réception matérialisée lors d’un saut en longueur, etc. Toutes les activités ne se prêtent pas à une telle objectivation. Celles qui se traduisent par la production de formes gestuelles sont plus délicates à apprécier. Si l’on veut inviter un élève à comparer deux mouvements, la question « est-ce que c’est pareil ? » risque d’être trop abstraite. Des questions plus précises peuvent y conduire progressivement en retenant des critères moins équivoques (« est-ce que X a les jambes pliées ? Et Y ? »). Ce type de question intermédiaire met l’élève en situation de réussite et s’inscrit dans « une démarche (qui) contribue à lever les facteurs de blocages (angoisse se transformant en mutisme, inhibition ou même en attitude agressive). »23 3. 4. Les aides entre élèves et les soutiens spécialisés Le collège Pierre Mendès France illustre certains types d’aide que peuvent apporter des élèves « ordinaires » en EPS : en gymnastique, chaque groupe de travail comprend deux élèves de l’UPI, dont les autres ont la responsabilité, et, lors du jeu de thèque, la difficulté à se repérer dans l'espace est palliée par l’appariement de certains élèves de l’UPI avec des camarades de cinquième. Dans un autre collège, qui accueille en intégration individuelle quelques adolescents « handicapés », l’un d’eux désigne dans la classe d’accueil un camarade référent, volontaire, auquel il peut éventuellement recourir. Ailleurs, l’aide d’un élève « ordinaire » n’a lieu que ponctuellement, par exemple pour l’arbitrage. Quant aux soutiens spécialisés, ils sont assurés par des adultes. Ce peut être un auxiliaire de vie scolaire, précieux notamment lors d’activités appelant une vigilance particulière, telle la natation. À Riom, c’est l’enseignant spécialisé qui seconde le professeur. Il intervient si besoin auprès d’autres élèves que ceux de l’UPI. Si, dans ce collège, les cours spécifiques aux élèves de l’UPI sont assurés par un professeur d’EPS, dans d’autres établissements c’est parfois l’enseignant spécialisé qui en est responsable. Dans l’un deux, il profite de ces cours pour préparer les élèves à des tâches qu’ils auront à réaliser en situation d’intégration, par exemple la direction d’un échauffement. 3. 5. Une juste distance L’autonomie nécessite de se déprendre d’un sentiment de compassion excessif qui conduit à aider les élèves au-delà du nécessaire, à les maintenir dans une dépendance qui peut d’autant plus perdurer qu’elle apporte des bénéfices aux deux parties qu’elle lie24. 23 Boyer J.-P., Markievich C., Galerin L., Julhien G. (dir.) (2002).), Accompagnement vers l'autonomie des élèves scolarisés dans une Unité Pédagogique d'Intégration, Document élaboré à la demande de la DESCO, Collège P. Mendès France, Riom. 24 Memmi A. (1979), La dépendance, esquisse pour un portrait du dépendant, Paris, Gallimard. 11 Concernant les relations entre élèves, l’étude conduite à Riom met en évidence une évolution au fil du temps : « Au début, remarque un professeur, il y avait un peu de distance, voire parfois quelques réticences » de la part des élèves « ordinaires » à l’égard de ces collégiens différents. « On ne se mélangeait pas. On a eu quelques difficultés à faire accepter ces séances communes ». Pour la représentante d’une association de parents d’élèves de l’établissement, qui a fait le même constat, les difficultés initiales s’expliquent par le fait que l’« on a des a priori sur le handicap, le handicap fait un peu peur, et donc il faut apprendre à se connaître ». Est-ce qu’une intégration collective, donc la présence d’un nombre relativement élevé de jeunes de l’UPI au sein d’une classe ordinaire, ne serait pas plus délicate, pour les élèves de cette classe, que des intégrations individuelles ? Paradoxalement, selon ce parent, la distance initiale s’est conjuguée parfois avec une certaine surprotection des élèves ordinaires à l’égard des adolescents de l’UPI : « Au départ, c’était pour eux des enfants handicapés, qui savaient moins faire qu’eux, qu’il fallait protéger. Donc, ils étaient un peu derrière pour les aider ». Progressivement, les relations entre élèves sont devenues plus équilibrées. Toutefois, un professeur d’EPS souligne que l’aide dont bénéficient les adolescents en situation de handicap doit être appréciée avec nuance. Si en effet elle présente à ses yeux des aspects très positifs, il arrive que des élèves de l’UPI lui paraissent moins autonomes en situation d'intégration : « Lors de certaines activités, que l'on a pu pratiquer uniquement avec eux, ils se débrouillent très bien sans l'aide de personne. Et quelquefois, lorsqu'ils sont en en contact avec ces élèves-là (du collège), d'un seul coup, on a l'impression qu'ils ne savent plus faire, parce qu'ils comptent sur eux alors qu'ils savent ». Mais cette attitude est conjoncturelle : dans d'autres tâches, selon une autre organisation, en particulier concernant les relations entre élèves, la réussite sera accrue. Il arrive qu’un adolescent n’accepte d’agir qu’avec l’aide d’une personne en particulier, adulte ou camarade. Si un accompagnement personnalisé s’avère parfois nécessaire, il devrait, autant que possible, ne constituer qu’un détour sur le chemin de l’autonomie. S’efforcer de libérer l’activité de l’élève de son contexte initial est un objectif pédagogique qui déborde les aspects affectifs et relationnels. L’acquisition de compétences suppose en effet de pouvoir transférer ce qui a été appris dans une situation à une autre qui relève d’un même type de problème sans être exactement identique. Un joueur de football, par exemple, est appelé à mettre en œuvre des stratégies de démarquage dans des contextes de jeu qui ne sont jamais tout à fait les mêmes. Viser l’adaptabilité de l’élève est un objectif important, bien que difficile à atteindre avec des sujets qui peuvent avoir besoin d’un contexte d’activité très stable. Modifier un élément matériel utilisé pour structurer l’environnement peut être le premier pas d’une prise de distance vis-à-vis de repères rassurants, encore qu’un adolescent autiste puisse être davantage attaché à la stabilité de son environnement matériel qu’à la présence d’une personne déterminée. 12 4. Une construction permanente mais pas sans limites On peut considérer qu’un sujet est autonome lorsqu’il est « capable de se diriger tout seul, sans être contraint par quelqu’un d’autre à se conduire comme il le fait »25. Mais le sens qu’il donne à ce qu’il désire et investit est en partie déterminé par celui qui a cours, inscrit dans les « significations imaginaires » de la société26 et dans les appartenances socioculturelles. Et les interactions avec autrui ne sont généralement pas dénuées de dépendance, plus ou moins selon les individus, les âges de la vie et les situations. Si l’autonomie apparaît donc être davantage un horizon qu’un état effectivement rencontré, son caractère relatif 27 ne doit pas conduire à négliger le travail pour y tendre, notamment quand il concerne des personnes en situation de handicap. Il s’agit bien d’un travail, entrepris par l’enseignant à partir d’un paradigme constructiviste, selon lequel le développement du sujet dépend largement de sa propre activité. Dans cette perspective, le but des tâches, l’adaptation de leurs conditions de réalisation, et le sens qu’elles peuvent présenter pour l’adolescent sont l’objet d’une vive attention, pour qu’il puisse et désire s’y engager en mobilisant toutes ses ressources, et pour qu’il progresse. Le sujet ne se construisant pas tout seul, l’interactionnisme est une autre référence propre à orienter le travail de l’enseignant. Les interactions entre les adultes et les élèves, et entre les élèves eux-mêmes, sont pensées de manière à solliciter et accompagner l’adolescent dans toutes ses dimensions : physique, cognitive, affective et relationnelle. Elles sont pour lui l’occasion d’une reconnaissance dont le besoin, « vital (…), constitue la validité nécessaire de la construction de soi »28 et le socle de l’autonomisation. L’importance accordée à l’autonomie nécessite de toujours veiller à la construire tout en étant conscient de ses limites. En y mettant l’accent, il importe tout d’abord de ne pas négliger le renforcement du lien social, auquel l’EPS peut apporter une contribution originale. De par les multiples interactions qu’elle suscite, elle constitue un support intéressant pour apprendre à vivre ensemble et incarner des aspects de l’éducation civique. Et elle ouvre à une participation sociale d’autant plus large que l’on délaisse, dans le cadre de son enseignement, les activités physiques de nature rééducative au bénéfice de pratiques culturelles, porteuses de significations mobilisatrices29. En second lieu, l’autonomisation ne doit pas être entendue comme antinomique avec des aides, même si parfois elles signent une dépendance. Certes, elles peuvent entraver l’autonomie, mais paradoxalement elles en sont une condition si elles ne s’opposent pas à la volonté du sujet et si elles lui permettent une activité qui sans cela serait impossible. On peut donc admettre qu’« est autonome celui qui sait demander et obtenir l’aide dont il a besoin pour élaborer ses projets et 25 Descombes V. (2004), Le complément de sujet. Enquête sur le fait d’agir de soi-même, Paris, Gallimard, p. 443. 26 Castoriadis C. (1975), L’institution imaginaire de la société, Paris, Éditions du Seuil, Coll. « Esprit ». 27 Sticker H.-J. (1997), « L’autonomie, une valeur relative », in Trisomie : le défi de l’autonomie, Actes des 6es journées nationales Trisomie 21, Geist 21, Clermont-Ferrand. 28 Gardou C. (1998). « La personne handicapée : d’objet à sujet, de l’intention à l’acte», Colloque, Lyon II, 1719 sept 1998, La nouvelle revue de l’AIS, Éd. du Cnefei, n° 4, p. 99. 29 Bruner J.S., (1996). L’éducation, entrée dans la culture, op. cit. 13 les réaliser »30. Ce qui suppose d’apprendre à connaître ses limites, à apprécier ce qui est réalisable seul ou non. De ce point de vue, l’EPS présente l’intérêt de placer l’élève dans des situations où la réussite et l’échec sont donnés à voir objectivement. La conscience de ses capacités était manifestement absente chez cette adolescente qui « est partie dans la partie profonde du bassin sans savoir nager »31, à l’opposé de cette autre qui interpelle un camarade pour lui demander une aide justifiée en gymnastique. Enfin, si l’autonomie d’un sujet en situation de handicap peut susciter parfois des résistances chez les enseignants et les éducateurs, en raison de l’incertitude dont elle est porteuse et des fonctionnements institutionnels routiniers qu’elle dérange, il arrive qu’elle soit promue jusqu’à devenir une injonction à laquelle la personne est incapable de répondre, courant le risque de l’instillation d’un sentiment d’échec durable, alors qu’une estime de soi suffisante est requise pour oser exprimer un choix, agir de soi-même, s’engager dans un projet et le mener à bien. Références bibliographiques - BARON M., BRUNET F., VERRET C. (2005), Gérer au quotidien son autonomie fonctionnelle. Activités physiques adaptées aux personnes en perte d’autonomie, Dossier EP.S n° 63, Éd. Revue EP&S. - BRUNET F. et MAUTUIT D. (2003), Activités physiques adaptées aux personnes déficientes intellectuelles. Du programme institutionnel au projet personnalisé, Dossier EP.S n° 60, Éd. Revue EP.S. - BRUNET F. et BUI-XUAN G. (dir.), (1991), Handicap mental, troubles psychiques et sport, Afraps, Clermont-Ferrand, 1991. - « Faciliter les apprentissages autonomes », Actes du 7e colloque européen sur l’autoformation, ENFA, Toulouse, 18-19-20 mai 2006, Disponible sur : http://www.enfa.fr/autoformation/. - GAREL J.-P. (2001), Des collégiens parmi les autres. L’intégration en EPS d’élèves présentant un handicap mental, Doc. audiovisuel, 40’, Suresnes, Édit. de l’INS HEA.
2,607
f5cc6f3b0bf7a21e67a88d82181aef7d_15
French-Science-Pile
Open Science
Various open science
2,017
Temps d'attente pour un remplacement du genou, moyennes et évolution, 2015
None
French
Spoken
7,523
13,653
PANORAMA DE LA SANTÉ 2017 © OCDE 2017 8. PERSONNEL DE SANTÉ Médecins (nombre total) Graphique 8.3. Médecins en exercice pour 1 000 habitants, 2000 et 2015 (ou année la plus proche) 2000 2015 6.3 Pour 1 000 habitants 7 0.8 0.3 1 0.7 1.8 1.8 1.8 1.8 2.2 2 2.1 2.4 2.3 2.6 2.4 2.8 2.7 2.9 3 2.8 3.0 2.9 3.0 3.2 3.1 3.3 3.2 3.4 3.4 3.5 3.4 3.5 3.5 3.7 3.7 3.8 3.8 4.0 4 3.9 4.2 4.1 4.3 4.2 4.6 5 4.4 5.1 6 Gr Au èce t ¹ Po r ich r tu e No gal rv ¹ L i ège tu a Su ni e Fé is dé s r a A Su e t io ll e è d m e n de ag Ru n e E s s si pa e gn Ré e pu bl I I t a l iq sl a i e ue n tc de Da hèq ² ne ue Ré Au mar pu s k bl iq P a tr a l ue ys ie slo - B va as qu e Is ² r Es aël t O C oni DE e Fr 3 5 a F i nce nl ² a L e nd t to e Ho ni e No u v B n gr e l el g i e le iq Lu -Zé ue xe l a n m de bo u Ir l r g a Ro S l n d ya ové e um ni e e C - Un Ét a n a i at da s- ² Un Ja is M po ex n P o iqu e lo gn Co e ré e C o Chi l o l i¹ m b Br i e és il A f T Chin r i q ur e u e qu du i e ² Su d In In do de né si e 0 1. Les données correspondent aux médecins habilités à exercer, d’où une large surestimation du nombre de médecins en activité (d’environ 30 % au Portugal). 2. Les données incluent non seulement les médecins dispensant des soins aux patients, mais aussi ceux exerçant dans le secteur de la santé en tant qu’administrateur, professeur, chercheur, etc. (ajoutant 5 à 10% de médecins). Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609055 Graphique 8.4. Évolution du nombre de médecins dans divers pays de l’OCDE, 2000 à 2015 (ou année la plus proche) Pays au-dessus de la moyenne par habitant de l’OCDE Pays au-dessous de la moyenne par habitant de l’OCDE Suède OCDE30 Royaume-Uni OCDE30 20 20 20 20 20 03 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 02 80 01 80 00 100 10 20 11 20 12 20 13 20 14 20 15 100 08 120 09 120 07 140 05 140 06 160 04 160 02 180 03 180 01 Indice (2000 = 100) 200 00 Indice (2000 = 100) 200 09 20 10 20 11 20 12 20 13 20 14 20 15 Mexique 07 Japon 08 États-Unis Grèce¹ 06 Corée Autriche 05 Australie 04 Allemagne 1. Les données concernant la Grèce portent sur l’ensemble des médecins habilités à exercer. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609074 PANORAMA DE LA SANTÉ 2017 © OCDE 2017 157 8. PERSONNEL DE SANTÉ Répartition des médecins par âge, sexe et catégorie La structure du personnel médical par âge et par sexe, ainsi que la répartition entre les différentes catégories de médecins jouent un rôle important dans l’offre de services médicaux. Depuis de nombreuses années, le vieillissement de la population des médecins dans les pays de l’OCDE fait craindre une insuffisance de la relève, bien que les départs à la retraite s’avèrent souvent progressifs et de plus en plus tardifs (OCDE, 2016). D’autre part, le déséquilibre croissant en faveur de différentes spécialisations au détriment de la médecine générale soulève des préoccupations dans de nombreux pays sur l’accès aux soins primaires pour toute la population. En moyenne, un tiers des médecins dans les pays de l’OCDE étaient âgés de plus de 55 ans en 2015, contre un sur cinq en 2000 (graphique 8.5). Entre 2000 et 2015, la proportion de médecins âgés de plus de 55 ans a plus que doublé en France, en Italie, en Espagne et en Autriche. Si l’on peut s’attendre à ce que ces médecins prennent leur retraite dans les 10 ans à venir, un nombre croissant d’entre eux continuera vraisemblablement d’exercer au-delà de 65 ans. En Israël et en Italie, la moitié (ou plus) des médecins étaient âgés de plus de 55 ans en 2015. Il convient de noter que la forte proportion de médecins de plus de 55 ans observée en Israël tient peut-être en partie au fait que la source de données couvre tous les médecins autorisés à exercer, alors que certains n’exercent peut-être plus. À l’inverse, 13 à 17 % seulement des médecins au Royaume-Uni et en Corée étaient âgés de plus de 55 ans, du fait de l’arrivée de nombreux nouveaux diplômés au cours des dix dernières années (voir l’indicateur sur les « Médecins nouvellement diplômés »). Un certain nombre de pays de l’OCDE ont réformé leurs systèmes de pensions et reculé l’âge de départ à la retraite en conséquence de l’allongement de l’espérance de vie. Bien que peu d’études aient été consacrées aux répercussions de ces réformes dans le cas spécifique des médecins, il n’est pas exclu qu’elles les amènent à poursuivre leur activité au-delà de 65 ans, ce qui pourrait avoir une incidence non négligeable sur les besoins de remplacement futurs. En 2015, en moyenne dans les pays de l’OCDE, 46 % des médecins étaient des femmes, contre 39 % en 2000 (graphique 8.6). Dans 11 pays, les femmes comptent maintenant pour la moitié au moins des médecins, voire pour plus de 70 % en Lettonie et en Estonie. Entre 2000 et 2015, c’est aux Pays-Bas et en Belgique que leurs effectifs parmi les médecins ont connu la plus forte croissance en proportion (49 et 47 %, respectivement). À l’inverse, au Japon et en Corée, seul un médecin sur cinq était une femme en 2015, bien que le Japon ait enregistré une hausse significative de 42 % par rapport à 2000. En moyenne dans les pays de l’OCDE, les généralistes représentaient environ 30 % de l’ensemble des médecins en 2015 (graphique 8.7), une part similaire à celle de 2005. La Grèce, la Hongrie et les États-Unis affichaient la plus faible 158 proportion de généralistes, tandis que des pays comme la France, le Canada et l’Australie étaient parvenus à préserver un meilleur équilibre entre généralistes et spécialistes. Il convient de noter qu’en Irlande et au Portugal, la plupart des généralistes ne sont pas des médecins de famille mais des médecins non spécialistes travaillant à l’hôpital ou dans d’autres structures. Aux États-Unis, les médecins qui exercent en médecine interne générale sont classés parmi les spécialistes, alors que leur activité est souvent très proche de celle des médecins généralistes. De ce fait, la capacité de ce pays à fournir des soins de médecine générale est sous-estimée dans une certaine mesure. En réponse aux inquiétudes quant aux risques de pénurie de médecins généralistes, beaucoup de pays ont entrepris d’augmenter l’offre de formation dans ce domaine. Au Canada, le nombre de places de formation postdoctorale en médecine de famille a plus que doublé entre 2000 et 2013, dans le cadre d’un effort national destiné à améliorer l’accès aux soins primaires (RCEP, 2015). Toutefois, dans la plupart des pays de l’OCDE, la rémunération des spécialistes, plus élevée que celle des généralistes, constitue pour les médecins une incitation financière à la spécialisation (voir l’indicateur sur la « Rémunération des médecins »). Définition et comparabilité La définition des médecins est donnée dans la section précédente consacrée à l’indicateur sur les médecins. Les chiffres pour certains pays (par exemple, Grèce et Portugal) couvrent, au-delà des médecins en exercice, tous ceux autorisés à exercer. Tous les pays ne sont pas en mesure de recenser la totalité de leurs médecins selon les deux grandes catégories (spécialistes et généralistes). Cela peut être lié à l’absence de données par spécialité pour les médecins en cours de formation ou pour les médecins libéraux. Références OCDE (2016), Health Workforce Policies in OECD Countries: Right Jobs, Right Skills, Right Places, Éditions OCDE, Paris, http:// dx.doi.org/10.1787/9789264239517-en. RCEP – Répertoire canadien sur l’éducation post MD (2015), « Domaine de formation médicale postdoctorale de la faculté de médecine proposant une formation postdoctorale 2013-2014 », Base de données disponible sur : https://caper.ca/fr/. PANORAMA DE LA SANTÉ 2017 © OCDE 2017 Ir l a Po nde 3 r tu ga l3 Ch i C a li na d Fr a a Au nce st P a r a li ys e A l -B le as m ag F i ne nl an Be de lg i M qu e ex No iq uv Au ue ell tr i e- ch Zé e la nd Lu Tur e xe qu m ie bo O C ur g DE 32 Ro I y a sr a um ë l eU Su ni is se Co r Sl é e ov én ie It a E s li e to L e ni e Ré pu D t ton bl an i e iq em ue tc ar k hè q No ue rv è Po ge lo gn Su e è Is d e Ét l a nd at s- e U Ho nis ng rie Gr èc e PANORAMA DE LA SANTÉ 2017 © OCDE 2017 78 22 31 18 27 20.3 22.3 30 75 88 32 40 44.3 34.0 34.6 37.4 39.6 40.0 40.3 40.6 40.6 40.7 41.3 41.5 41.8 43.2 43.9 12.8 34.5 35.1 35.2 32.1 31.0 25.6 26.2 26.7 26.9 27.0 25.2 37.2 32.7 43.9 44.4 40.5 36.0 34.1 46.6 46.2 41.2 53.3 49.9 46.7 42.9 37.4 32.4 27.9 22.2 16.7 20 12 58 58 15 12 53 83 1 40 15 17 19 19 34 Médecins spécialistes² 41 77 23 3 45.9 45.7 2000 80 77 23 14 7 46.5 46.5 47.6 47.6 49.0 52.6 52.6 30 19 73 23 27 73 72 58 28 28 70 30 8 14 1 Médecins généralistes¹ 63 68 70 32 30 61 32 64 36 4 50 54 61 54.5 54.1 Es ël to ni Fr e an Le ce t to B e ni e lg A l iqu le m e ag ne I Lu sl a xe n d m e bo u Ho r g Ré n pu D a gr i Ré bliq ne e pu u e ma r bl iq tch k ue èq slo ue va qu e Ja Ét p o at n sU O C nis DE 3 Su 0 is se Su èd Ca e na Au da tr i c Es he pa gn No e uv ell e - Chil Zé i la n Sl de ov é F i ni e nl an Au de st r P a alie ys -B No a s rv èg Ir l e an d Ro C e y a or é um e eUn i 40 32 58 37 59 41 37 55 55.9 56.9 57.5 73.1 li e ra It a Is 2000 6 0 45 6 % 100 49 54 46 62.4 70 57.7 60 45 53 47 46 40 51 60 49 20 74.4 50 30 80 49 t to E s ni e to Sl ni e Ré ov pu é bl iq F in ni e ue la slo nde va P o qu e Ré lo pu bl H gn e iq on ue g tc rie hè Po qu e rt Pa uga ys l Es Bas p Da a gn ne e m No ar k rv èg Su e è Au de tr i c Ro O C h e ya DE um 3 4 A l e-U le n m i No ag n uv el Fr a e le n -Z ce él an Ir l d e an C a de na d Is a ra ë Gr l èc e I B e t a li e lg iq u Su e is Tu se r A u qui e st ra li e Ch Is ili Ét l a n a d L u t s- e xe Un m is bo ur Co g ré Ja e po n % 80 41 % 60 51 59 Le 8. 1 2 http://dx.doi.org/10.1787/888933609093 Graphique 8.6. Pourcentage de femmes parmi les médecins, 2000 et 2015 (ou année la plus proche) 2015 20 10 0 Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609112 Graphique 8.7. Pourcentage des généralistes et des spécialistes parmi les médecins, 2015 (ou année la plus proche) Autres médecins non spécifiés 1. Outre les médecins généralistes/médecins de famille, cette catégorie inclut également les médecins exerçant une médecine générale sans spécialité. 2. Les médecins spécialistes comprennent les pédiatres, les obstétriciens/gynécologues, les psychiatres et les spécialistes médicaux et chirurgicaux. 3. En Irlande et au Portugal, la plupart des généralistes ne sont pas des omnipraticiens (« médecins de famille »), mais plutôt des médecins nonspécialistes travaillant dans les hôpitaux ou d’autres structures. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609131 159 8. PERSONNEL DE SANTÉ Médecins nouvellement diplômés Le nombre de médecins nouvellement diplômés reflète dans une large mesure les décisions prises quelques années plus tôt concernant le nombre d’étudiants admis dans les écoles de médecine (décisions concernant le numerus clausus). Depuis 2000, la plupart des pays de l’OCDE ont relevé ce quota en réponse aux préoccupations suscitées par les pénuries, effectives ou potentielles, de médecins (OCDE, 2016), mais les chiffres restent variables d’un pays à l’autre. En 2015, on comptait en moyenne environ 12 médecins nouvellement diplômés pour 100 000 habitants dans les pays de l’OCDE (graphique 8.8). Cette proportion atteignait son maximum en Irlande, avec 24 nouveaux médecins pour 100 000 habitants, et son minimum en Israël et au Japon. En Irlande, le nombre de médecins nouvellement diplômés a fortement augmenté en 2013, pour une part en raison de l’ouverture, quelques années plus tôt, des nouveaux Graduate Entry Programmes qui permettent aux étudiants en licence dans une autre discipline d’obtenir un diplôme de médecine en quatre ans. En Israël, le faible nombre de nouveaux diplômés des formations nationales est compensé par le nombre élevé de médecins formés à l’étranger. Environ un tiers des médecins formés à l’étranger sont nés dans le pays mais sont partis faire leurs études ailleurs avant de revenir. La situation est différente au Japon, qui compte très peu de médecins formés à l’étranger. En 2008, le gouvernement japonais a décidé d’accroître le nombre des admissions dans les études de médecine en réponse au manque effectif ou annoncé de médecins ; toutefois, cette politique ne s’est pas encore traduite par une hausse du nombre de nouveaux diplômés en médecine. À la suite du relèvement du numerus clausus dans la plupart des pays de l’OCDE au cours des quinze dernières années, le nombre des médecins nouvellement diplômés a augmenté, mais à un rythme différent d’un pays à l’autre (graphique 8.9). L’Australie arrive en tête, avec un nombre de médecins nouvellement diplômés multiplié par 2.7 entre 2000 et 2015. Cette croissance s’explique en grande partie par la hausse du nombre d’étudiants australiens, mais les écoles de médecine du pays ont aussi accueilli des effectifs croissants d’étudiants internationaux. Au Royaume-Uni, le nombre des médecins nouvellement diplômés a doublé entre 2000 et 2015, reflétant les efforts menés pour accroître l’offre intérieure et moins recourir aux médecins formés à l’étranger. Bien qu’il y ait eu une légère diminution du nombre de diplômés à partir de 2013, le gouvernement a annoncé en 2016 l’intention de financer les études pour 1 500 étudiants supplémentaires afin de répondre à la demande croissante de soins (ministère de la Santé, 2016). Aux Pays-Bas, le ralentissement de la croissance du nombre de diplômés en médecine a continué (ACMMP 2014). En France, le nombre de médecins nouvellement diplômés a régulièrement augmenté à partir de 2006 à la suite d’un fort relèvement du numerus clausus entre 2000 et 2006. Il devrait toutefois se stabiliser dans les années à venir, car les quotas d’admission ont relativement peu évolué ces dernières années. En Espagne, le nombre d’étudiants en médecine a diminué légèrement jusqu’en 2012, puis a recommencé à augmenter rapidement (+36 % entre 2012 et 2015). 160 Aux États-Unis, le nombre d’admissions dans les écoles de médecine a également augmenté après 2005, et le nombre de médecins nouvellement diplômés a crû progressivement au cours des dix dernières années ; les chiffres incluent le nombre croissant d’étudiants américains qui sont partis faire leurs études à l’étranger (notamment dans les pays des Caraïbes), avec l’intention de revenir aux États-Unis pour y effectuer leur troisième cycle de formation et s’y installer. Cela devrait créer des pressions supplémentaires à l’augmentation du nombre de postes de médecin-résident pour permettre à la fois aux nouveaux médecins issus des universités du pays et aux Américains formés à l’étranger de suivre leur formation de troisième cycle. Le nombre des médecins nouvellement diplômés a aussi fortement augmenté en République tchèque et en Pologne à partir de 2009. Cette augmentation peut s’expliquer en partie par le nombre croissant d’étudiants internationaux qui choisissent ces pays pour faire leurs études de médecine. En République tchèque, les étudiants internationaux représentaient, ces dernières années, environ 30 % du total des médecins nouvellement diplômés. L’internationalisation croissante des études de médecine, à laquelle s’ajoutent les migrations, complique la tâche des gouvernements dans l’établissement de leurs propres politiques nationales (OCDE, 2016). Définition et comparabilité Le nombre de médecins nouvellement diplômés est défini comme le nombre d’étudiants diplômés des écoles de médecine au cours de l’année considérée. L’Australie, l’Autriche et la République tchèque prennent en compte les diplômés de nationalité étrangère, quand d’autres pays peuvent les exclure. Au Danemark, les données correspondent au nombre de nouveaux médecins qui reçoivent l’autorisation d’exercer, ce qui peut entraîner une surestimation si une partie d’entre eux ont été formés à l’étranger. Références ACMMP – Advisory Committee on Medical Manpower Planning (2014), The 2013 Recommendations for Medical Specialist Training, Utrecht. Commission de haut niveau des Nations unies sur l’Emploi en Santé et la Croissance économique (2016), S’engager pour la santé et la croissance : Investir dans le personnel de santé, OMS, Genève, www.who.int/hrh/com-heeg/reports. Ministère de la Santé du Royaume-Uni (2016), « Up to 1 500 Extra Medical Training Places Announced », Londres, www.gov.uk/government/news/up-to-1500-extra-medicaltraining-places-announced. OCDE (2016), Health Workforce Policies in OECD Countries: Right Jobs, Right Skills, Right Places, Éditions OCDE, Paris, http:// dx.doi.org/10.1787/9789264239517-en. PANORAMA DE LA SANTÉ 2017 © OCDE 2017 8. PERSONNEL DE SANTÉ Médecins nouvellement diplômés Graphique 8.8. Nombre de diplômés en médecine, 2015 (ou année la plus proche) Pour 100 000 habitants 25 23.7 19.5 20 17.4 16.2 15.9 15.8 14.7 14.6 15 13.6 13.5 13.4 13.0 12.8 12.7 12.4 12.3 12.1 12.1 11.3 11.2 11.0 10.7 10.6 10.5 10.2 10.0 10 9.4 9.3 8.9 8.7 7.9 7.9 7.5 6.4 5.5 5 Ir Da lan ne de m a S l r k¹ ov én Le ie t to Po ni e r tu Au gal st ra A u li e Ré tr i pu P ch Ré bli ay s e pu qu e - B a bl iq tch s ue èq slo ue va q Ho ue ng r Ro E s p i e y a a gn um e eU F i ni nl an d Is e la nd e It a O C li e DE Be 3 4 lg A l iqu le m e ag No ne rv èg Es e to M ni e ex iq u Su e èd Su e is Po s e lo gn Fr e an ce Ch il Gr i No èc uv Tu e ell r q e - ui Zé e la nd Ca e na da C Ét or é at s- e Un is Ja po n Is ra ël 0 1. Au Danemark, le chiffre se réfère aux nouveaux docteurs recevant une habilitation à exercer, ce qui peut entraîner une surestimation si une partie d’entre eux ont été formés à l’étranger. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609150 Graphique 8.9. Évolution du nombre de diplômés en médecine, 2000 à 2015 (ou année la plus proche) Pays au-dessus de la moyenne par habitant de l’OCDE Pays au-dessous de la moyenne par habitant de l’OCDE Australie Espagne Canada États-Unis Irlande Pays-Bas France Japon 09 20 10 20 11 20 12 20 13 20 14 20 15 20 07 06 05 08 20 20 20 03 20 20 01 00 02 20 20 20 14 13 15 20 20 20 11 10 12 20 20 20 20 20 20 20 20 20 20 20 20 20 08 50 09 50 07 100 05 100 06 150 04 150 02 200 03 200 01 250 00 250 04 Pologne Indice (2000 = 100) 300 20 Royaume-Uni Indice (2000 = 100) 300 Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609169 PANORAMA DE LA SANTÉ 2017 © OCDE 2017 161 8. PERSONNEL DE SANTÉ Rémunération des médecins (généralistes et spécialistes) La rémunération selon les catégories de médecins a un impact sur l’attrait financier des différentes spécialités. Dans de nombreux pays, l’État influe sur le niveau et la structure de la rémunération, soit en tant que principal employeur de médecins, soit en tant que client de leurs services, ou encore par la réglementation des honoraires. Du fait de la mobilité internationale croissante des médecins (voir l’indicateur sur la migration des médecins et du personnel infirmier), les niveaux relatifs de rémunération proposés par les différents pays peuvent jouer un rôle non négligeable en matière d’attractivité. Les données de l’OCDE sur la rémunération des médecins distinguent la rémunération des médecins salariés de celle des médecins libéraux. Cette distinction devient de plus en plus floue dans certains pays, du fait que certains médecins salariés sont autorisés à exercer en clientèle privée, tandis que des médecins libéraux peuvent recevoir une partie de leur rémunération sous forme de salaires. On opère également une distinction entre, d’un côté, les généralistes et, de l’autre, les spécialistes (toutes spécialités confondues) bien qu’il puisse y avoir de larges différences de revenu entre les spécialités médicales. Dans les pays de l’OCDE pour lesquels les données sont disponibles, la rémunération des médecins (généralistes et spécialistes) est nettement supérieure au salaire moyen de l’ensemble des travailleurs (graphique 8.10). En 2015, le revenu des généralistes libéraux en Autriche, au Canada, en France et au Royaume-Uni était environ le triple du salaire moyen du pays tandis qu’en Allemagne, il était quatre fois plus élevé. En Australie, les généralistes libéraux gagnaient environ le double du salaire moyen en 2015, mais il convient de noter que ce revenu est sous-estimé car il inclut la rémunération des médecins en cours de formation. Dans la plupart des pays, la rémunération des spécialistes est nettement supérieure au salaire moyen de l’ensemble des travailleurs, et supérieure à celle des généralistes. En 2015, l’écart de revenu entre spécialistes et généralistes était particulièrement prononcé en Australie, en Belgique et au Luxembourg, où les spécialistes libéraux gagnaient plus du double que les généralistes. En Belgique et au Luxembourg, la rémunération des spécialistes libéraux était six fois supérieure au salaire moyen de l’ensemble des travailleurs, et en France et en Allemagne, elle était cinq fois supérieure. Il convient de noter qu’en Belgique, la rémunération inclut les frais professionnels, d’où une surestimation. salaires ou les honoraires des médecins afin de réduire les coûts tout en continuant de garantir l’accès aux soins à la population. Ainsi, dans des pays comme l’Estonie, l’Irlande, l’Italie et la Slovénie, la rémunération des médecins a diminué pendant les années qui ont suivi la crise. Toutefois, plus récemment, la rémunération des médecins et autres personnels de santé a recommencé à croître (OCDE, 2016). Définition et comparabilité La rémunération des médecins correspond au revenu annuel brut moyen, qui inclut les cotisations de sécurité sociale et l’impôt sur le revenu à la charge du salarié. Elle ne doit pas inclure les frais professionnels dans le cas des médecins libéraux. Les données présentent des limites qui contribuent parfois à une sous-estimation du montant de la rémunération : 1) la rémunération des heures supplémentaires, les primes et les autres revenus additionnels ou les cotisations de sécurité sociale sont exclus dans certains pays (Autriche pour les généralistes, Irlande pour les spécialistes salariés et Italie) ; 2) les revenus tirés de l’exercice en clientèle privée des médecins salariés ne sont pas pris en compte dans des pays comme la République tchèque, la Hongrie, l’Islande, l’Irlande et la Slovénie ; 3) les paiements informels, qui peuvent être courants dans certains pays (par exemple, Grèce ou Hongrie) ne sont pas inclus ; 4) au Chili, au Danemark, en Grèce, en Hongrie, en Irlande, en Islande, en Norvège, en République slovaque et au Royaume-Uni, les données ne couvrent que les salariés du secteur public, dont la rémunération est généralement inférieure à celle offerte dans le secteur privé ; 5) les données couvrent les médecins en cours de formation en Australie. Dans certains cas, les données incluent les professionnels à temps partiel, tandis que dans d’autres, elles se rapportent uniquement aux médecins qui exercent à temps plein. En Belgique, les données pour les médecins libéraux incluent les frais professionnels, ce qui entraîne une surestimation. Le revenu des médecins est comparé au salaire moyen à temps plein du pays, tous secteurs confondus. Les données relatives au salaire moyen sont tirées de la base de données de l’OCDE sur l’emploi. Pour le calcul des taux de croissance en termes réels, les déflateurs du PIB pour l’ensemble de l’économie sont utilisés. Dans beaucoup de pays de l’OCDE, l’écart de revenu entre généralistes et spécialistes a continué de se creuser au cours des dix dernières années, réduisant l’attrait financier de la m édecine g énéra le (g ra p h i q u e 8 . 1 1 ). Depuis 2005, la rémunération des spécialistes a augmenté plus rapidement que celle des généralistes au Canada, en Finlande, en France, en Hongrie, en Israël, au Luxembourg et au Mexique. Au contraire, en Autriche, en Belgique, en Estonie et aux Pays-Bas, l’écart s’est légèrement réduit, le revenu des généralistes ayant progressé plus rapidement que celui des spécialistes. Références Dans certains pays de l’OCDE, la crise économique de 2008-09 a eu un impact sur la rémunération des médecins et autres personnels de santé. Plusieurs pays d’Europe durement touchés par la récession ont gelé, sinon revu à la baisse, les OCDE (2016), Health Workforce Policies in OECD Countries: Right Jobs, Right Skills, Right Places, Éditions OCDE, Paris, http:// dx.doi.org/10.1787/9789264239517-en. 162 PANORAMA DE LA SANTÉ 2017 © OCDE 2017 8. PERSONNEL DE SANTÉ Rémunération des médecins (généralistes et spécialistes) Graphique 8.10. Rémunération des médecins par rapport au salaire moyen, 2015 (ou année la plus proche) Salariés Libéraux Médecins spécialistes Médecins généralistes Australie¹ Autriche Belgique² Canada Chili République tchèque Danemark Estonie Finlande France Allemagne Grèce Hongrie Islande Irlande Israël Italie Lettonie Luxembourg Mexique Pays-Bas Nouvelle-Zélande Norvège Pologne République slovaque Slovénie Espagne Suède Royaume-Uni 3.9 4.1 6.0 4.5 3.3 2.6 2.6 2.2 2.6 2.2 4.9 3.5 5.3 2.4 2.2 2.4 3.3 3.8 2.5 1.6 4.3 6.0 3.4 3.4 3.1 4.3 1.8 1.5 2.3 2.1 2.3 2.3 3.4 6 4 2 0 Rapport au salaire moyen de chaque pays 1.9 2.7 2.4 2.8 2.6 n.d. 2.7 1.6 2.2 1.8 3.0 4.1 n.d. 1.9 2.2 2.4 2.2 n.d. 1.0 2.8 2.6 2.1 2.5 2.5 n.d. 3.2 2.1 n.d. 2.2 2.0 n.d. 1.6 0 3.1 2 4 6 Rapport au salaire moyen de chaque pays 1. Médecins en formation inclus (d’où une sous-estimation) 2. Dépenses professionnelles incluses (d’où une surestimation). Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609188 Graphique 8.11. Évolution de la rémunération des médecins généralistes et spécialistes, 2005-15 (ou année la plus proche) Médecins spécialistes Médecins généralistes Taux de croissance annuel moyen (%, en termes réels) 5 4.2 4.0 3.8 4 3.2 3 2.5 2.2 2 1.5 1 0.5 0.2 1.6 1.4 0.8 0.5 0.8 0.8 0.4 0.3 0.2 0.3 0 -0.1 -0.2 -1 -1.0 -B ys Pa M ex iq ur bo m Lu xe as ¹ ue g¹ ël ra Is Ho ng rie ce an Fr de Fi nl an e ni to Es da Ca na ue iq lg Be Au tr i ch e -2 1. Pour les Pays-Bas et le Luxembourg, le taux de croissance concerne la rémunération des médecins généralistes et spécialistes en exercice libéral. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609207 PANORAMA DE LA SANTÉ 2017 © OCDE 2017 163 8. PERSONNEL DE SANTÉ Personnel infirmier Les infirmiers sont beaucoup plus nombreux que les médecins dans la plupart des pays de l’OCDE et jouent un rôle essentiel dans l’offre de soins, non seulement dans les structures traditionnelles, comme les hôpitaux et les établissements de soins de longue durée, mais aussi, et de plus en plus, dans les soins primaires (notamment pour prodiguer des soins aux personnes souffrant de maladies chroniques) et à domicile. Beaucoup de pays redoutent une pénurie de personnel infirmier et cette inquiétude pourrait fort bien s’intensifier dans les années à venir du fait que la demande va continuer de s’accroître cependant que le vieillissement de la génération actuelle du « baby-boom » va entraîner une vague de départs à la retraite. Ces préoccupations ont conduit de nombreux pays à prendre des mesures pour former plus d’infirmiers (voir l’indicateur sur les infirmiers nouvellement diplômés) et pour inciter le personnel à rester dans la profession. Le taux de rétention du personnel infirmier a augmenté ces dernières années dans de nombreux pays, soit en raison de la crise économique qui a poussé un plus grand nombre d’infirmiers à rester ou à revenir dans la profession, soit à la suite d’efforts délibérés qui ont été menés pour améliorer leurs conditions de travail (OCDE, 2016). En moyenne dans les pays de l’OCDE, le nombre d’infirmiers est passé de 7.3 pour 1 000 habitants en 2000 à 9 pour 1 000 habitants en 2015 (graphique 8.12). En 2015, la Suisse, la Norvège, le Danemark, l’Islande et la Finlande enregistraient les valeurs les plus élevées, avec plus de 14 infirmiers pour 1 000 habitants. Les pays de l’OCDE montrant la densité la plus faible étaient la Turquie, le Chili et le Mexique (avec moins de trois infirmiers pour 1 000 habitants). En ce qui concerne les pays partenaires de l’OCDE, la densité de personnel infirmier était généralement faible par rapport à la moyenne de l’OCDE. En 2015, la Colombie, l’Indonésie, l’Afrique du Sud, l’Inde et le Brésil comptaient moins de 1.5 infirmiers pour 1 000 habitants, bien que les effectifs aient assez fortement augmenté au Brésil ces dernières années. Le nombre d’infirmiers rapporté à la population a augmenté dans presque tous les pays de l’OCDE depuis 2000. Ainsi, la Corée et le Portugal avaient une densité d’infirmiers relativement faible, mais se sont rapprochés de la moyenne de l’OCDE. La France, qui avait également une densité relativement faible, a quant à elle dépassé cette moyenne. Une hausse significative a été enregistrée dans des pays comme la Suisse, la Finlande et le Danemark, qui avaient déjà une forte densité d’infirmiers en 2000. Entre 2000 et 2015, cette densité a diminué en Irlande et en Israël du fait d’une croissance de la population plus rapide que celle du nombre d’infirmiers. En République slovaque, le nombre d’infirmiers a baissé, à la fois en nombre absolu et en proportion de la population. En 2015, on comptait environ trois infirmiers par médecin en moyenne dans les pays de l’OCDE, avec à peu près la moitié des pays enregistrant un chiffre compris entre deux et quatre (graphique 8.13). Le ratio infirmiers-médecins était le plus élevé au Japon, en Finlande et au Danemark (4.6 infirmiers par médecin). Il était le plus faible au Chili, en Turquie et au Mexique (moins de 1.2 infirmiers par médecin). Pour faire face aux pénuries de médecins et garantir un accès satisfaisant aux soins, certains pays ont attribué des fonctions plus complexes au personnel infirmier. Les évaluations 164 relatives aux infirmiers praticiens réalisées aux États-Unis, au Canada et au Royaume-Uni montrent que, s’agissant de certains patients, en particulier ceux qui rencontrent des problèmes de santé mineurs ou qui ont besoin d’un suivi ordinaire, ce personnel infirmier de pratique avancée peut permettre d’améliorer l’accès aux services de santé et de réduire les délais d’attente, tout en fournissant des soins de même qualité que les médecins. Les évaluations existantes montrent un taux élevé de satisfaction des patients, ainsi qu’un effet neutre ou même de réduction sur les coûts. La mise en place de nouvelles pratiques avancées pour le personnel infirmier peut nécessiter des changements dans la législation et la réglementation afin de lever les barrières à son développement (Delamaire et Lafortune, 2010). Définition et comparabilité Le nombre d’infirmiers couvre l’ensemble du personnel infirmier employé dans des structures publiques ou privées, fournissant des soins directement aux patients ; sont également inclus, dans certains cas, les infirmiers qui exercent une fonction d’encadrement, de formation ou de recherche. D a n s l e s p ay s o ù i l e x i s t e d i f f é r e n t s n iv e a u x professionnels, les données couvrent à la fois les « infirmiers de niveau supérieur », qui ont suivi une formation plus poussée et assument des tâches de plus haut niveau, et les « infirmiers de niveau intermédiaire », qui ont suivi une formation moins poussée mais sont néanmoins reconnus et enregistrés comme infirmiers. Les données ne couvrent pas les aides-soignants qui ne sont pas reconnus comme infirmiers. Elles ne couvrent pas non plus les sages-femmes, hormis dans certains pays où elles sont au moins partiellement prises en compte car elles sont considérées comme des membres du personnel infirmier spécialisé ou pour d’autres raisons (Australie, Espagne et Irlande). L’Autriche et la Grèce ne prennent en compte que les infirmiers travaillant en milieu hospitalier, d’où une sous-estimation. Références Commission de haut niveau des Nations unies sur l’Emploi en Santé et la Croissance économique (2016), S’engager pour la santé et la croissance : Investir dans le personnel de santé, OMS, Genève, www.who.int/hrh/com-heeg/reports. Delamaire, M. et G. Lafortune (2010), « Les pratiques infirmières avancées : Une description et évaluation des expériences dans 12 pays développés », Documents de travail de l’OCDE sur la santé, n° 54, Éditions OCDE, Paris, http://dx.doi.org/10.1787/ 5km4hv77vw47-fr. OCDE (2016), Health Workforce Policies in OECD Countries: Right Jobs, Right Skills, Right Places, Éditions OCDE, Paris, http:// dx.doi.org/10.1787/9789264239517-en. PANORAMA DE LA SANTÉ 2017 © OCDE 2017 8. PERSONNEL DE SANTÉ Personnel infirmier Graphique 8.12. Personnel infirmier en exercice pour 1 000 habitants, 2000 et 2015 (ou année la plus proche) 2000 2015 1.1 1.2 1.2 1.5 1.4 2.1 2.0 2.8 4 2.4 4.9 3.2 4.7 5.2 5.4 5.3 5.9 5.7 6.3 6.0 6.5 8 7.7 8.0 7.9 8.7 8.1 9.0 8.8 9.9 9.9 10.5 10.3 11.0 10.8 11.3 11.1 11.9 11.9 12 11.5 13.3 16 14.7 16.7 15.5 18.0 17.3 Pour 1 000 habitants 20 Su N iss Da or v e ne ège m Is a r la k F i nd Al nla e¹ le nd m e a L u Ir l g n xe a n e m de b A ou ¹ Ét us t r g at r a s- li e Un Su is¹ è J de Be apo No u v P a l giq n el ys ue le -Z Ba él s a Fr nde an Ca ce Fé ¹ dé OC nad ra t io S DE a n lov 3 5 Ré de é pu R ni bl A us e iq u t si ue ric e Ro t c h ya hè e ² um qu e e L i - Un tu i Ho a ni Po ng e Ré r tu r ie pu Es gal bl to ¹ iq ni ue slo C or e va ée qu e¹ Es It al pa ie Po gn lo e g Is n e L e r aë t to l G ni e M rèce ex ² iq Ch ue in C e Tu hil rq i³ u Br ie¹ Af és r iq u e In i l du d e In S do u Co né d lo sie m bi e 0 1. Les données incluent non seulement les infirmiers dispensant des soins aux patients, mais aussi ceux exerçant dans le secteur de la santé en tant qu’administrateur, professeur, chercheur, etc. 2. L’Autriche et la Grèce comptabilisent uniquement le personnel infirmier employé dans les hôpitaux. 3. Les données du Chili correspondent à l’ensemble du personnel infirmier habilité à exercer. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609226 Graphique 8.13. Ratio du personnel infirmier par rapport au nombre de médecins, 2015 (ou année la plus proche) 2.2 0.6 1.4 1.4 1.4 1.5 1.4 1.6 1.8 1.9 1.8 1.7 1.5 1.3 1.2 1.1 1.0 0.8 1 2.1 3.8 2.2 2 2.2 2.7 2.7 2.8 2.8 3.0 2.9 3.3 3.6 3.4 3.2 3.1 3.0 3 3.7 3.9 4.1 4.1 3.9 4 4.1 4.6 4.3 4.6 4.6 Ratio 5 J F i apo Da nl an n ne de m a Ét Su r k Lu at s iss xe - Un e m is bo ¹ Is ur g l No and rv e C a ège n Ir l a d a In a n do de No uv B né ¹ ell el sie e - giq Zé u e Au land A l s tr e le al m ie Sl agn o P a vén e ys ie Fr B a s Ro A u a n c ya tric e¹ um h e e² O C - Un DE i Fé Su 3 5 dé è Co de Ré r a t i pu on Po r é e bl de lo g iq R n ue u e tc s si hè e H o qu ng e rie Ré pu L i In d bl t u e iq u E an A f e sl s to i e r iq ov ni u e aq e du ue¹ S Gr u d Le èce t to ² n Is i e ra ël Es It al i Po pag e r tu ne ga C l³ M hin ex e Tu iqu rq e ui Ch e¹ il B C o r é i¹ lo sil m bi e 0 1. Pour les pays n’ayant pas fourni de données sur le personnel infirmier en exercice et/ou les médecins en exercice, les données se rapportent dans un cas comme dans l’autre aux individus « professionnellement actifs » (à l’exception du Chili, où elles concernent l’ensemble des infirmiers et des médecins habilités à exercer). 2. Les données pour l’Autriche et la Grèce incluent uniquement les infirmiers et les médecins employés dans les hôpitaux. 3. Le ratio du Portugal est sous-estimé car il correspond au nombre d’infirmiers professionnellement actifs rapporté au nombre total des médecins habilités à exercer. Source : Statistiques de l’OCDE sur la santé 2017. 1 2 http://dx.doi.org/10.1787/888933609245 PANORAMA DE LA SANTÉ 2017 © OCDE 2017 165 8. PERSONNEL DE SANTÉ Personnel infirmier nouvellement diplômé Beaucoup de pays de l’OCDE ont pris des mesures, depuis environ dix ans, pour accroître le nombre d’étudiants admis dans les écoles d’infirmiers en réponse aux préoccupations concernant les pénuries, ressenties ou pressenties, de personnel (OCDE, 2016). Néanmoins, les efforts consacrés à la formation de nouveaux infirmiers sont très variables d’un pays à l’autre, ce qui peut s’expliquer par les différences dans le nombre et la structure d’âge des effectifs actuels de la profession (d’où des besoins différents en termes de remplacement), par la capacité d’accueil des écoles d’infirmiers, ainsi que par les perspectives d’emploi futures. En 2015, on dénombrait en moyenne près de 46 infirmiers nouvellement diplômés pour 100 000 habitants dans les pays de l’OCDE, contre moins de 40 en 2003. La Corée, la Suisse et le Danemark enregistraient le nombre le plus élevé par rapport à la population, avec plus de 90 infirmiers nouvellement diplômés pour 100 000 habitants en 2015. Le Mexique, le Luxembourg et la République tchèque enregistraient les chiffres les plus bas, avec moins de 16 infirmiers nouvellement diplômés pour 100 000 habitants (graphique 8.14). Au cours de la dernière décennie, le nombre d’infirmiers nouvellement diplômés a augmenté dans tous les pays de l’OCDE, mais à des rythmes différents (graphique 8.15), progressant fortement dans bien des pays où il était relativement faible. Ainsi au Mexique, où il est particulièrement peu élevé, il a été multiplié par huit en proportion de la population, entre 2000 et 2015, tandis qu’il quadruplait en Italie. La progression a été plus modérée en ce qui concerne les pays où le nombre d’infirmiers nouvellement diplômés par habitant était déjà supérieur à la moyenne. L’Allemagne a connu une hausse du nombre d’infirmiers nouvellement diplômés, à partir de 2012, qui tient au moins en partie à l’ouverture, dans un certain nombre d’universités, de nouvelles filières de niveau supérieur venant s’ajouter aux formations classiques dispensées dans les écoles d’infirmiers de l’enseignement professionnel (CassierWoidasky, 2013). La Norvège a également enregistré une croissance modeste ces dernières années. Au Japon et en Finlande, le nombre d’infirmiers nouvellement diplômés a régressé au début de la décennie avant de repartir en légère hausse plus récemment. 166 En France, le nombre de nouveaux diplômés des écoles d’infirmiers a augmenté de 87 % entre 2000 et 2015. Le numerus clausus fixé par le ministère de la Santé pour gérer l’entrée dans la formation à cette profession a été sensiblement relevé à partir de 1999. La plus grande partie de cette augmentation a eu lieu lors de l’année scolaire 2000/01 pour laquelle le quota annuel avait été relevé de 43 %, dans la perspective d’une baisse de l’offre de personnel infirmier résultant de la réduction du temps de travail à 35 heures par semaine et, de façon plus générale, en raison des nombreux départs à la retraite auxquels il fallait se préparer. Définition et comparabilité Le nombre d’infirmiers nouvellement diplômés correspond au nombre d’étudiants qui ont obtenu une qualification reconnue, nécessaire pour devenir infirmier enregistré ou agréé. Il comprend les diplômés sortant de filières de formation de personnel infirmier à des niveaux plus ou moins élevés. Il ne tient pas compte des étudiants titulaires de masters ou de doctorats, pour éviter de comptabiliser deux fois les personnes qui acquièrent des qualifications supplémentaires. Dans le cas du Danemark et du Royaume-Uni, les données correspondent au nombre de nouveaux infirmiers qui reçoivent l’autorisation d’exercer. Références Cassier-Woidasky, A.K. (2013), « Nursing Education in Germany – Challenges and Obstacles in Professionalisation », DHBW, Stuttgart. OCDE (2016), Health Workforce Policies in OECD Countries: Right Jobs, Right Skills, Right Places, Éditions OCDE, Paris, http:// dx.doi.org/10.1787/9789264239517-en. PANORAMA DE LA SANTÉ 2017 © OCDE 2017 8. PERSONNEL DE SANTÉ Personnel infirmier nouvellement diplômé Graphique 8.14. Infirmiers nouvellement diplômés, 2015 (ou année la plus proche) 109.0 Pour 100 000 habitants 120 12.8 12.0 19.0 15.8 20 20.6 23.2 21.5 23.8 27.0 26.2 27.6 31.1 28.9 32.1 33.2 40 35.8 38.9 43.9 43.6 46.0 49.7 46.0 50.9 54.2 52.9 54.5 63.1 60 58.8 66.8 72.9 73.5 77.5 80 76.9 92.4 93.4 100 Co ré Su e Da is ne se m a S l r k¹ ov é A u ni e st ra No li e rv è Is g e la nd Fi n e Ét l a nd at s- e Un C a is n A l ad le Ré m a pu ag bl n A iq u t e ue r i slo che va qu Ja e po Be n lg iq No uv OC ue ell D E eZé 3 5 la n Ho de ng Pa rie ys -B a Fr s an c Su e èd Es e to Po ni e lo g Tu ne rq u Ir l i e an Ro L e d e ya t to um ni e eU P o n i¹ r tu ga Gr l Es èce pa gn e Ch ili Ré It a pu li e bl iq I u e sr a ë t Lu chè l xe qu m e bo M ur g ex iq ue ² 0 1. Pour le Danemark et le Royaume-Uni, les données concernent les nouveaux infirmiers recevant une habilitation à exercer, ce qui peut impliquer une surestimation en cas d’inclusion d’infirmiers formés à l’étranger.
5,151
49/dumas.ccsd.cnrs.fr-dumas-03140347-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
2,485
3,408
22 On peut lire : « Les échanges réalisés dans cette situation de tutorat ont permis une progression de la réussite à la tâche, mais n'ont pas conduit à modifier suffisamment la compréhension de la démarche de résolution »20. • Tâche : choix d'opérations En ce qui concerne cette tâche, le taux de réussite aux trois problèmes proposés au pré-test ne permettait pas de remarquer des évolutions significatives. Cette épreuve n'était donc pas comprise dans la phase expérimentale. • Tâche : résolution de problèmes Pour cette tâche, on observe une progression dans la résolution d'un problème complexe par les tutorés. Les tutorés vont plus loin dans la résolution grâce à leur tuteur et ils sont en capacité de conserver un taux de résolution élevé lorsqu'ils se retrouvent seuls. Les progrès portent sur la mobilisation de ces capacités dans une situation complexe ainsi que la capacité à mettre en place une stratégie pour effectuer un choix en le justifiant par une écriture mathématique portant sur des calculs. • Le changement des attitudes des tuteurs Lors de cette expérimentation, les formes d'interventions des tuteurs ont également été observées. Les observations montrent que les tuteurs se préoccupent essentiellement de faire réaliser la tâche proposée de manière satisfaisante. Trois types d'attitudes ont été observées chez les tuteurs : des situations de retraits où le tuteur n'intervenait pas, des situations de guidage pas à pas où le tuteur guidait le tutoré de manière à lui éviter de commettre des erreurs et des stratégies adaptées au tutoré où le tuteur régulait son action au fur et à mesure de ses interventions. V.4) Conclusion de cette recherche L'ensemble des résultats obtenus n'est pas massivement favorable à l'existence de l'effet tuteur. Dans ces différentes épreuves, les résultats observés indiquent que l'effet tuteur se manifeste de manière irrégulière, le lien entre les progrès réalisés par les tuteurs et les tutorés n'est pas systématique. 20 Guichard, D. (2009). Le tutorat et l'effet tuteur à l'école élémentaire. Carrefours de l'éducation, 27(1), 19-35. doi:10.3917/cdle.027.0019. 23 Les progrès chez les tuteurs ne sont pas toujours liés au fait que les tutorés progressent ou non, cependant nous remarquons quand même que lorsque les tutorés font des progrès importants, alors des progrès plus fréquents chez les tuteurs sont observés. L'action du tuteur se déroule essentiellement par le langage. Les élèves tutorés semblent plus progresser sur l'acquisition de savoirs et de savoir-faire que les tuteurs sur ce plan. Conclusion À travers ce début de recherche, nous nous sommes demandé comment utiliser le cadre de la problématisation pour amener des élèves de CE2 à s'améliorer en résolution de problèmes. Nous pouvons conclure que les élèves ont été amenés à problématiser au travers des interactions langagières qui ont eu lieu pendant le débat argumentatif puisqu'ils ont établi des nécessités à partir de contraintes afin de répondre à la question initialement posée. La dynamique argumentative du débat a permis de faire avancer la problématisation avec la présence de thèses, qui ont permis d'explorer le champ des possibles, mais également les objections, qui ont fait ressortir les limites produisant ainsi les nécessités. En ce qui me concerne, pour le cadre de la problématisation, cette recherche m'a permis de découvrir et de comprendre le processus de la problématisation. Je retiens l'importance d'avoir une question initiale impliquante afin d'amener tous les élèves à construire le problème. Cela m'a également permis de comprendre comment mener un débat tout en restant à l'écart afin de ne pas influencer les élèves. J'ai aussi découvert des outils, la structure argumentative et l'espace de contraintes, pour analyser tout ce débat scientifique argumentatif. En ce qui concerne la résolution de problèmes, cette recherche m'a fait découvrir la théorie qui se trouve autour de cette démarche. J'ai pu découvrir les recherches de Catherine Houdement, professeure à l'université de Rouen Normandie, dont sa thématique principale de recherche est la résolution de problèmes. Pour finir, cette recherche m'a apporté les connaissances pour mettre en place un dispositif de travail particulier qui est le tutorat. J'ai pu analyser les apports et les limites de cette pratique pour les élèves afin que dans l'avenir, je puisse l'utiliser de façon efficace. 24 Annexe 0 : Liste des 10 problèmes donnés aux élèves 25 26 Annexe 1 : Résultats de l'évaluation diagnostique (séance 1) 27 Annexe 2 : Transcription du débat (séance 2) Informations : 5 élèves, durée du débat : 14min30s Remarque : la ponctuation est une interprétation des interventions des élèves Occurrences Références 1 PE.1 2 A.1 3 M.1 4 5 PE.2 M.2 6 E.1 7 A.2 8 M.3 9 A.3 10 11 12 13 L.1 E.2 M.4 PE.3 14 L.2 Interventions Expliquer comment on fait pour réussir à résoudre un problème mathématique. Aller A tu commences. Ben il faut savoir ses calculs parce que si tu connais pas tes calculs et que tu fais 8+3 et la tu arrives tu dis ça fait 15, ben nan c'est tout de suite plus compliqué. Aussi si on arrive pas a bien calculer, il faut prendre des outils, des légos, euh des calculatrices. Mais il faut bien lire le problème, si tu lis pas le problème, il y a marqué par exemple euh la maitresse distribue 3 bonbons, il faut en partager à chaque élève combien il y a de bonbons dans la boite. Ben si toi tu n'as pas envie de lire et puis tu dis ouais aller je vais réussir et tu prends 10 – 3=7 ben faut lire parce que sinon tu vas même pas savoir qu'est ce qu'il faut faire. Après il faut savoir bien ses tables ou avoir une technique sinon si tu fais n'importe comment 7X3 a ben tient ça fait 5. Ben faut bien savoir ses tables ou faut s'aider avec les choses qu'on a autour de nous comme le porte vues. Interroge tes camarades M, ils veulent parler. E. Ben oui je suis d'accord avec les autres il faut lire le problème, mais par contre il faut pas le lire trop de fois parce qu'après t'as tellement trop de choses dans la tête, il faut que tu te dises parce que t'as trop le problème dans la tête. Ben oui parce que en plus ça prend toute la place dans ta tête et t'es ben Tu n'as pas besoin de le lire 10 fois. Ben non, mais voilà. Par exemple tu lis une fois t'as pas compris, tu lis 3 fois t'as toujours pas compris, tu lis 20 fois, t'as tout le temps pas compris, tu lis 100 fois t'as toujours pas compris ben ça prend toute la tête pour réfléchir et tout de suite tu restes bloqué. Tu passes à autre chose sinon. Tu passes à autre chose. Moi j'ai lu 3 fois et après c'est terminé. L et A vous aviez des choses à dire tout à l'heure par rapport à M. Oui c'était euh moi je suis d'accord qu'il faut bien lire et comprendre le problème, car si tu le comprends pas très bien et bien c'est ce n'est pas facile de faire le problème, il faut bien 28 15 A.4 16 PE.4 17 L.3 18 M.5 19 E.3 20 V.1 21 PE.5 22 A.5 23 M.6 24 L.4 réussir à le comprendre et après il faut trouver les calculs et faire des choses avec le problème. Moi par rapport à L c'est vrai que si tu comprends pas le problème, ben au bout d'un moment tu t'y retrouves plus parce que si tu comprends un mot, mais que tu comprends un autre mot ben voilà. Et comment on fait pour comprendre un problème? Ben il faut bien le lire comme il dit M, faut aussi faut aussi bien Si on impose des personnages ou des choses et ben peut-être que ça va ensemble, peut-être pas et du coup Euh Mais aussi le problème faut pas par exemple il y a un problème ben faut pas, faut si tu comprends un peu même pas tout, mais tu comprends un peu, il faut déjà essayer de faire un peu quelque chose, parce que si tu comprends je sais pas moi si tu comprends une phrase déjà essaye à faire ce que t'as compris dans la phrase parce que je sais que moi il y en a ils ont compris, il y a 3 mots qui ont pas compris ils vont se dire « ah ben j'ai pas compris donc je vais pas le faire », ben essaye quand même sinon ça sert à rien. Moi il y a des problèmes où je bloquais, ben il y en a un seul que j'ai laissé, mais sinon le reste là où il y avait 3 mots où je comprenais pas il faut quand même le faire et aussi lire parce que sinon on a pas fini. Moi, oui je suis d'accord, car il y en a qui ne comprennent pas et ils restent bloqués comme ça Alors après il fallait du temps pour faire, ça se trouve c'est le problème, ils passent pas, ils continuent à chercher Et aussi si y a plusieurs problèmes et ben si on n'en comprend pas un, ben on passe au prochain. D'accord, mais s'il y en a qu'un seul à résoudre? Donc expliquer comment on fait pour réussir à résoudre un problème mathématique. Mais après ça dépend ce que c'est le problème, si c'est multiplier, une division, le plus, le moins, le Ben moi je disais qu'un seul problème si on n'a pas beaucoup de temps même si on a beaucoup de temps et ben on essaye si on a plusieurs techniques, on prend les plusieurs techniques par exemple une technique pour le plus, une technique ou les techniques qu'on a apprises comme On fait d'abord les unités après les dizaines ou on fait 4X6 pour les unités après 4X4 pour les dizaines et voilà plusieurs techniques on s'en sert après on essaye plusieurs méthodes après on prend plus, tout ce qu'on a trouvé, on essaye de voir c'est quelle réponse la plus logique ou si c'est la même chose ben tu prends euh Ben moi je voulais dire si t'as plusieurs chiffres ou plusieurs choses à résoudre et ben tu peux faire tu peux faire tu peux commencer Commencer avec ton cahier de brouillon et ton ardoise à faire plusieurs calculs et puis après « à nan, mais je viens 29 25 E.4 26 A.6 27 L.5 28 PE.6 29 M.7 30 A.7 31 L.6 32 V.2 33 E.5 34 M.8 de comprendre ça du coup faut faire autre chose », il faut essayer pleins de petites choses et puis après c'est ou tu trouves que c'est plus logique parce que si on dit 7 + je sais pas 15 et ben si tu trouves 20 eh ben et que tu là tu viens de comprendre que 7+5 ça peut pas faire 10 ou un nombre qui se termine par 0 et ben du coup tu vas dire que c'est pas ça et bien ça peut être ça E. Ben là c'est avant je m'interrogeais pour M, car oui je suis d'accord que quand tu résous un problème il faut plusieurs méthodes, car si tu as qu'une méthode et que si c'est une très bonne méthode ben tu mets la réponse et peut être que ça va pas être bon. Moi aussi je veux dire par rapport à M il y a plusieurs, j'ai une technique ça marche aussi par exemple il y a la technique du 9, tu vas rajouter une dizaine, mais tu vas enlever une unité. Par exemple 9 + 15 ça va faire 24 parce que t'enlèves une unité aux unités et tu rajoutes une dizaine aux dizaines. Et aussi je voulais dire aussi pour bien chercher le calcul faut écouter la maitresse en classe parce qu'elle veut nous donner pleins de bons conseils, des techniques et tout et si t'écoutes pas à la fin c'est plus compliqué. L. Mais du coup dans un problème faut comprendre, faut bien avoir ses calculs en tête. Et vous du coup quand vous avez le problème sous les yeux, comment vous faites pour réussir à résoudre ce problème? Ben d'abord, des fois il y a des petits dessins ou sinon il faut imaginer et ce qu'il peut se passer dans un problème. A. Je suis exactement d'accord parce que euh Parce que ben je suis d'accord qu'il faut imaginer, mais Quand tu viens d'avoir un problème sous les yeux, faut d'abord le lire, le comprendre, imaginer et après tu lis la question et puis normalement si tu comprends bien le problème et que tu imagines un peu comme Si tu imagines ben pas n'importe quoi, si on parle de pommes et que tu imagines une fraise ça ne va pas marcher, bon faut quand même bien imaginer ce qu'il se passe et que après normalement si t'as pas fait ça tu peux facilement répondre à la question. V. Un petit peu comme L elle a dit, mais aussi il faut prendre le temps de bien comprendre le problème donc si on prend pas le temps de comprendre euh Comme a dit M tout à l'heure, ben du coup on va faire tout ça au hasard en se disant je vais avoir une réponse donc on a 0 sur 10. E . Ben moi c'était pour L, là je suis pas trop d'accord avec ce qu'elle a dit parce qu'on peut quand même imaginer une pomme à la place d'une fraise, ça va faire le même résultat. Ben nan, mais c'est vrai. Ouais c'est vrai. 31 Annexe 3 : Fiche des tuteurs pour les ateliers (format A3) Mes paroles « Je vous laisse du temps pour lire le problème. » « Souhaitez-vous relire le problème? » « Pour résoudre un problème, il faut bien comprendre les mots. Avez-vous des questions sur les mots? » Les remarques des élèves Noter ici le temps mis par les élèves : Oui Non Noter ici les mots demandés : Noter ici ce que les élèves racontent de bon, de faux, ce qu'ils ont oublié : « Pouvez-vous raconter ce qui se passe dans ce problème? » « Si vous voulez vous pouvez faire un dessin. Je vous laisse le temps. » Oui « Est-ce qu'à votre avis, pour résoudre ce Oui problème, il faut faire des calculs? » « Avez-vous décidé du ou (des) Noter ici les calculs : calcul(s) qu'il faut faire alors? » OUI NON Non Non « Comment savez-vous qu'il faut faire ce ou ces calculslà? » Noter ici les mots des élèves : « Puisqu'il ne faut pas faire de calcul, que faut-il faire alors? » Noter ici les mots des élèves : « Je vous laisse du temps pour faire vos calculs. » « Avez-vous des problèmes pour effectuer vos calculs? Avez-vous besoin d'aide? (tables d'additions, multiplications,) « Est-ce-que le résultat vous paraît logique? » Noter ici les aides choisis par les élèves :.
12,004
02/tel.archives-ouvertes.fr-tel-03145109-document.txt_12
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
10,969
17,018
271 poursuit la réalisation d'un but illicite1085. C'est ce qui résulte notamment du leading case Cowan v Milboun de 18671086 dans lequel une salle avait été louée dans le but de délivrer des discours blasphématoires, de sorte que le locataire ne put agir en exécution du contrat. Par ailleurs, dès lors que le motif d'un contractant est intégré au champ contractuel et que la préservation de la loi ou de l'ordre public impose que le contrat soit privé d'effet, l'autre partie ne peut pas non plus agir sur le fondement du contrat1087. En définitive, lorsque le respect de la loi ou de la public policy impose qu'aucune des parties ne puisse obtenir l'exécution du contrat, alors le contrat sera unenforceable à l'égard des deux contractants. Ces effets se rapprochent de ceux de la nullité qui ne permet à aucune des parties de se prévaloir de la force obligatoire du contrat. Toutefois, l'analyse de la norme méconnue impose parfois de ne pas priver le contrat de sa force obligatoire en dépit de l'illicéité du but poursuivi par un contractant. B- L'exception résultant de l'analyse de la norme méconnue 256. Les exceptions à la nullité en droit français. En droit français, l'invalidité du contrat fondée sur une impossibilité juridique de réalisation des motifs, au regard de leur illicéité, peut conduire à une autre sanction que celle de la nullité dès lors que l'analyse de la finalité de la norme méconnue le justifie. La sanction de la fraude paulienne en constitue une bonne illustration. En effet, l'illicéité des motifs du contrat réalisant une fraude paulienne tient à l'atteinte portée aux droits d'un tiers. La sanction de l'acte doit donc être celle assurant la protection des droits du , ce qui n'impose pas nécessairement la nullité du contrat. Suivant l'analyse de Mme SAUTONIE-LAGUIONIE, « la qualification d'action en inopposabilité a emporté la conviction de la majorité de la doctrine et s'est généralisée en jurisprudence »1088 en ce que la sanction de l'inopposabilité exprime « le fait que l'acte frauduleux est privé d'effet à l'égard du seul créancier agissant, dans la mesure nécessaire à lui permettre d'obtenir l'exécution de sa créance » 1089. Le nouvel article 1341-2 du Code civil consacre cette solution1090. Outre l'attribution éventuelle de dommages et intérêts, l'article 1341-2 du Code civil permet en effet au créancier d'attaquer les actes réalisés par son débiteur en fraude de ses V. N. THOMPSON, op. cit., n° 3.01 et s. Cowan v Milboun (1867) L.R. 2 Ex. 230. 1087 V. Pearce v. Brooks (1866) LR 1 Exch 213 précité : le propriétaire du véhicule n'a pas pu agir en exécution du contrat. 1088 L. SAUTONIE-LAGUIONIE, « Action paulienne », in Répertoire de droit civil, Dalloz, op. cit., n° 105. 1089 Ibid. 1090 L'article 1341-2 du code civil dispose que « Le créancier peut aussi agir en son nom personnel pour faire déclarer inopposables à son égard les actes faits par son débiteur en fraude de ses droits [] ». 1086 272 droits, afin qu'ils lui soient déclarés inopposables1091. Toutefois, ainsi que le relève l'auteur précité, l'action en inopposabilité du tiers peut parfois conduire à un « effet plus radical » sur le contrat dans la mesure où « [l]a privation d'effet de l'acte frauduleux à l'égard du créancier paulien suppose parfois que ni le tiers contractant ni le débiteur ne puissent se prévaloir de l'acte frauduleux »1092, de sorte que la sanction consiste en la nullité du contrat1093. 257. Les exceptions à la nullité en droit allemand. A l'instar du droit français, l'identification d'un motif illicite et rattaché au champ contractuel ne conduit pas nécessairement à la sanction radicale que constitue la nullité du contrat en droit allemand. Suivant les termes d'un auteur, « le § 134 BGB ne pose pas, selon la doctrine dominante, de présomption selon laquelle la violation d'une prohibition légale entraînerait, en cas de doute, la nullité de l'acte conclu »1094. Il s'agit d'analyser le sens et le but de la pour identifier la sanction contractuelle appropriée1095. L'interdiction légale peut être essentiellement posée à titre « préventif », de sorte que l'annulation du contrat ne constitue pas une sanction efficace1096. Ainsi en est-il de la sanction du travail au noir qui n'est que le fait de l'employeur : dans ce cas, le contrat ne doit pas être considéré comme nul1097. En revanche, lorsque le travail au noir est le fait des deux parties, de l'avis de la majorité de la doctrine allemande et du Bundesgesrichtshof, le but poursuivi par le législateur en matière de Scharwzarbeit conduit à considérer que les contrats de travail doivent être déclarés inefficaces juridiquement1098. Dans ce cas en effet, aucune des parties ne pourra obtenir du juge l'exécution de la prestation de son cocontractant, à savoir l'exécution du travail ou le paiement de la rémunération1099. Une autre 1091 Ibid. n° 76 et s. sur les effets de l'action paulienne. Ibid. n° 106. 1093 V. l'exemple cité par L. SAUTONIE-LAGUIONIE, « Action paulienne », in Répertoire de droit civil, Dalloz, op. cit., n° 106 de l'arrêt de la 3ème Chambre civile du 20 mars 1996, n° 94-14.665 (D. 1996. 387, obs. S. PIEDELIEVRE) dans lequel il était question d'un bail à long terme, conclu en fraude du créancier hypothécaire, déclaré inopposable à ce dernier et dont les effets du contrat ont été également niés dans les rapports entre les parties. Sur la subsidiarité de la nullité V. L. SAUTONIE-LAGUIONIE, thèse préc., n° 700 et s . 1094 C. WITZ, op. cit., n° 238. 1095 C. ARMBRÜSTER, Münchener Kommentar zum BGB, op. cit., § 314, n° 103 ; R. SACK, M. SIEBL, in Staudinger Kommentar zum BGB, op. cit., § 134, n° 57-63. 1096 D. MEDICUS, op. cit., n° 649 et s. 1097 D. MEDICUS, op. cit., n° 651. V. par ex. BGH 19.01.1984, NJW 1984, 1175. 1098 V . B GH 23.09.1982 , VII ZR 183/80 ; BGHZ 85, 39 ; NJW 1983, 109, 110. Dans cet arrêt, un contrat « d'entraide entre voisins » (Nachbarschaftshilfevertrag) avait été conclu par les parties pour la construction d'une maison. Bien qu'étant ex facie licite, les juges du fond et Bundesgerichtshof ont estimé que l'acte fraudait la réglementation relative au travail au noir car le constructeur était contraint, en réalité, de recourir à des travailleurs au noir. La nullité du contrat a dès lors été prononcée. Le Bundesgerichtshof rappela que la fraude à la loi est une cause de nullité, en application du § 134 BGB, lorsque le but d'une norme juridique est déjoué par l'utilisation d'autres constructions juridiques et il considéra que le but et le sens de la loi sur la lutte contre le travail au noir seraient heurté si l'efficacité du contrat par lequel un entrepreneur s'oblige à engager des travailleurs au noir était admise. 1099 V. BGH 23.09.1982, VII ZR 183/80, BGHZ 85, 39 NJW 1983, 109 (précité). Dans cet arrêt, le Bundesgerichtshof a reconnu l'illicéité d'un contrat de travail au noir déjà exécuté dont il a toutefois rendu efficace l'obligation de paiement du prix (v. D. MEDICUS, op. cit., n° 251 ; FENN ZIP 1983, 466 ; KÖHLER JR 1983, 106 ; TIEDTKE NJW 1983, 713). V. aussi OLG Celle 18.10.1972, 9 U 76/70, JZ 1973, 246, VersR 1973, 1122 : le tribunal a accueilli une action en dommages et intérêts pour mauvaise 1092 273 illustration est fournie par les §§ 135 et 136 du BGB relatifs aux interdictions d'aliéner. Le § 135 dispose ainsi expressément que « [s]i un acte de disposition portant sur un bien contrevient à une interdiction légale d'aliéner dont le but est de protéger certaines personnes déterminées, il n'est inefficace qu'à l'égard de ces personnes » 1100. Il s'agit alors d'un cas de relative Unwirksamkeit, c'est-à-dire d'inefficacité relative1101. 258. La consécration de la sanction adéquate en droit anglais. Il convient tout d'abord de relever que la loi, un statute, peut expressément prévoir qu'un acte est interdit, tout en disposant, dans le même temps, que la validité de l'engagement contractuel contrevenant à cette interdiction ne sera pas affectée1102. Par exemple, si une personne conclut un contrat dans le but de développer une activité d'assurance, sans avoir eu d'autorisation, conformément au Financial Services and Markets Act de 2000, le contrat est en principe unenforceable. Le contrat n'est toutefois pas unenforceable si l'« assureur » est autorisé à exercer une activité réglementée, bien qu'il ne soit pas spécialement autorisé à exercer l'activité d'assurance : dans ce cas le contrat est, par exception, enforceable1103. En effet, dans cette hypothèse, l'analyse de la politique juridique de la loi méconnue impose une sanction de l'illicéité, non pas sur le terrain contractuel sur le terrain disciplinaire1104. La nécessité de ne pas appliquer de façon stricte les solutions de principe relatives à la sanction de l'illicéité a récemment été établie par la Cour Suprême anglaise à l'occasion de l'arrêt Patel v Mirza de 20161105. Un contrat avait été conclu entre M. Patel et M. Mirza, le premier ayant confié de l'argent au second dans le but de parier sur le cours de certaines actions, sur la base d'informations confidentielles. Ce contrat était alors illicite dès lors qu'il visait la réalisation d'un délit d'initiés, réprimé par la section 52 du Criminal Justice Act de 1993. Le contrat ne fut pas mené à bien dès lors que les informations confidentielles sur la base desquelles il avait été conclu se sont avérées erronées. M. de l'illicéité du but poursuivi. Les juges ont en effet expressément affirmé la nécessité de déterminer les effets de l'illicéité en fonction de la considération concrète de l'atteinte à l'intérêt public que constituerait l'exécution de l'accord illicite. Les cours doivent notamment prendre en compte le but de l'interdiction légale violée et regarder si ce but serait optimisé par le refus de la demande. Il résulte dès lors de cet arrêt de la Cour Suprême que la sanction de l'illicéité doit être proportionnée. Il est intéressant de relever que les juges ont indiqué que le refus de la sanction de l'acte ne signifie pas que certains actes répréhensibles resteront impunis mais que cela doit relever des juridictions criminelles. Le fait qu'il soit admis par les juges qu'un contrat par lequel les parties poursuivent un but illicite puisse produire certains effets ne devrait donc pas être particulièrement choquant. Rompant avec les principes traditionnels de la sanction de l'illicéité, reposant classiquement sur l'unenforceability du contrat et le refus des actions en restitution sur le fondement de la turpitude des parties, cette solution a pu être décrite comme « un triomphe »1106. 259. Bilan. L'invalidité du contrat en raison d'une impossibilité juridique de satisfaire les motifs au regard de leur illicéité conduit, similairement dans les droits étudiés, à prendre en compte la finalité de la norme méconnue pour déterminer la sanction adéquate. Le contrat ne sera donc pas nécessairement privé de tout effet, la sanction radicale que constitue la nullité du contrat ne s'imposant pas toujours, notamment lorsque sont en cause des normes de protection d'un intérêt particulier. Lorsque l'invalidité du contrat se traduit par une impossibilité pour les parties de s en prévaloir – au titre de sa nullité en droits français et allemand ou de son unenforceability en droit anglais – la question se pose de l'admission de restitutions au cas où l'acte aurait reçu exécution. En effet, dès lors que l'invalidité du contrat se fonde, précisément, sur l'illicéité des motifs d'une ou des deux parties, la légitimité de leur intérêt à agir paraît discutable. Le traitement des restitutions fait ainsi classiquement l'objet de règles particulières en cas d'illicéité des motifs. §2- Le traitement des restitutions 260. La problématique des restitutions en matière d'illicéité. problématique est centrale en matière d'impossibilité juridique de satisfaction des motifs dans la mesure où, comme cela a été relevé par la doctrine anglaise, dans la plupart des litiges relatifs à la licéité du contrat, l'enjeu n'est pas tant de déterminer si l'exécution de ce dernier peut être forcée, mais si les parties peuvent obtenir la restitution de la valeur des avantages consentis au titre de l'accord1107. De façon classique, les droits français, anglais et allemand posent des limites similaires au jeu des restitutions consécutives à l'invalidité du contrat sur le fondement de l'illicéité des motifs1108. 261. Le refus des restitutions en droit anglais : application des adages ex turpi causa et in pari causa. Le principe, en droit anglais, est que le droit aux restitutions est nié à l'égard du contractant ayant participé à un contrat illicite 1109. Le critère de la participation, précédemment mentionné s'agissant de rattacher le motif au contrat, se retrouve ici sur le plan des restitutions. En effet, « [l]a règle générale est que l'argent payé ou la propriété transferée en vertu d'un contrat illégal ne peuvent pas être recouvrés »1110. La règle s'applique d'abord en cas d'exécution totale du contrat puisqu'il n'y a pas de failure of consideration et que le seul fait que le contrat soit illicite ne fonde pas un droit aux restitutions. Prenant l'exemple d'un contrat portant sur la vente de stupéfiants, des auteurs relèvent que les parties ayant librement consenti à l'acte et obtenu ce pour quoi elles ont contracté, elles ne peuvent obtenir restitution des prestations réciproques exécutées 1111. Même dans l'hypothèse d'une total failure of consideration, l' de l'adage ex turpi causa fait obstacle à la demande en restitution de la partie poursuivant le but illicite et ayant exécuté tout ou partie de son engagement. Les restitutions sont pareillement refusées à l'égard du cocontractant qui se trouve in pari causa1112. Ainsi, dans l'affaire Parkinson v College of Ambulance Ltd1113, le secrétaire d'un organisme de bienfaisance a promis un titre de chevalier à Monsieur Parkinson, en contrepartie d'un don suffisant de ce dernier à l'organisation. En contemplation de cette promesse, Monsieur Parkinson a payé 3 000 £ mais n'a jamais reçu le titre escompté. Monsieur Parkinson a alors intenté une action en restitution laquelle lui fut refusée, en dépit de la total 1107 P. S. ATIYAH, S. A. SMITH, op. cit., p. failure of consideration. Un contractant n'est pas in pari delicto et peut alors obtenir restitution lorsqu'il a été incité à conclure le contrat en raison d'un dol ou sous l'empire d'un vice du consentement1114. Les erreurs de fait1115 et de droit1116 sont en principe admises. Dans la mesure où le motif illicite est rattaché au contrat, la position du droit anglais, consistant à refuser par principe les restitutions et à ne les accorder que lorsque l'une des parties n'est pas in pari delicto, apparaît opportune. Elle rejoint finalement celle du droit allemand. 262. Le refus des restitutions en droit allemand en application du § 817 BGB. En droit allemand, les restitutions consécutives à la nullité du contrat, opérées sur le fondement du § 812 BGB, sont également paralysées par le jeu du § 817, lequel consacre la règle nemo auditur1117. En effet, ce texte prévoit que l'action en restitution est exclue si une infraction à la loi ou aux bonnes moeurs peut être imputée à celui qui a fourni la prestation. Cette disposition s'applique indistinctement que l'illicéité résulte de l'application du § 134 ou du § 138 du BGB1118. S'agissant de l'illicéité affectant le but du contrat et lui étant bien rattachée, il apparaît que l'admission des restitutions à l'égard d'un contractant résultera nécessairement de circonstances particulières. En définitive, en droit allemand, comme en droit anglais, le jeu des restitutions est donc exclu en matière d'illicéité du but en application du § 817 du BGB, à l'égard de l'une ou des deux parties, suivant leur innocence ou culpabilité. 263. L'admission des restitutions en droit français sous réserve de la légitimité de l intérêt à agir. En droit français, la mise en oeuvre de la nullité du contrat en raison de l'illicéité du but n'exclut pas en principe le jeu des restitutions1119. Toutefois, il est traditionnellement admis que l'action en restitution sur le fondement d'un contrat nul en raison de son immoralité est paralysée par l'application des adages nemo auditur et in pari causa 1120. En effet, en vertu 1114 P. S. ATIYAH, S. A. SMITH, op. cit., p. 235 ; J. BEATSON, A. BURROWS, J. CARTWRIGHT, op. cit., p. 426 et s. Oom v Bruce [1810] 12 East 225 : dans cette affaire, les primes d'assurance versées par l'assureur d'un assuré russe, en ignorance de l'éclatement de la guerre entre le Royaume Uni et la Russie ayant eu pour effet de rendre le contrat illégal, ont été considérées comme pouvant faire l'objet d'une action en restitution. 1116 Kiriri Cotton Co Ltd v Dewani [1960] AC 192, 204 : un contrat de sous-location avait été conclu en contravention d'une réglementation spécifique, les deux parties ignoraient la loi mais le locataire n'a pas été considéré in pari causa avec le propriétaire qui devait davantage avoir connaissance de la loi et qui alors été jugé « primarily responsible for the mistake », de sorte que le locataire put obtenir restitution de l'argent versé. V . aussi Mohamed v Alaga and Co [2000] 1 WLR 1815 : un contrat de partage d'honoraire avait été conclu entre un cabinet de solicitors, le défendeur, et un membre de la communauté somalienne au RoyaumeUni, demandeur, pour la présentation de clients demandant conseil et représentation en matière d'immigration et asile et un travail de traduction et préparation des dossier ; un tel contrat étant contraire aux Solicitors' Practice Rules de 1990, il a été déclaré unenforceable mais les restitutions en faveur du demandeur ont été admises dans la mesure où ce dernier ignorait les règles de la profession de solicitor. 1117 Sur la critique par la doctrine allemande du § 817 BGB en tant que corps étranger à la matière civile relevant davantage du droit pénal v. W. FLUME, Allgemeiner Teil des Bürgerlichen Rechts : Das Rechtsgeschäft, 2. Auflage, Springer-Verlag BerlinHeidelberg, 1975, § 18 n° 10 p. 389 et s. 1118 H. KÖTZ, Vertragsrecht, op. cit, n° 230 et s. 1119 J. ROCHEFELD, « Cause », in Repertoire de droit civil, Dalloz, 2012, n° 153. 1120 Sur le fondement de ces adages v. C. GUELFUCCI-THIBIERGE, thèse préc., n° 885 s. 1115 277 du premier, le contractant qui serait à l'origine de l'immoralité du contrat ne pourrait demander restitution de la prestation allouée à son partenaire, le second adage bloquant pareillement l'action en restitution dans le cas où l'immoralité serait le fait des deux parties1121. L'application de ces adages vient alors sanctionner le contractant poursuivant un but immoral 1122 . Le champ d'application de ces adages a pu être critiqué dans la mesure où il serait limité aux seuls actes dont le but est immoral1123, à l'exclusion des autres fondements de l'illicéité du motif-but que sont la méconnaissance de l'ordre public ou la violation d'une interdiction légale. Par ailleurs, une partie de la doctrine rejette ces adages en raison de leur inadaptation à fonder une peine privée, cette dernière devant davantage relever de la mise en oeuvre de la responsabilité des parties1124. En toute hypothèse, la réforme de 2016 ne permet pas de trancher quant à leur possible application future, aucun texte similaire au § 817 du BGB allemand n'ayant été introduit dans la section consacrée aux restitutions1125. De surcroît, l'absence de référence aux bonnes moeurs par l'article 1162 du Code civil, quoiqu'elles soient toujours mentionnées à l'article 6, tendrait à aller dans le sens de l'abrogation de fait des adages nemo auditur et in pari causa, dont l'application serait tombée en désuétude 1126. Pourtant, il n'est pas certain que l'obstacle aux restitutions résultant de l'innocence ou de la culpabilité des parties dans l'illicéité du motif ne puisse être maintenu1127, au moins au titre de l'exigence de la légitimité de l'intérêt à agir1128. Ainsi, selon un auteur, « sans même évoquer le jeu de la règle nemo auditur, il se trouve, tant dans la jurisprudence judiciaire que la jurisprudence administrative, nombre de décisions qui déclarent une demande irrecevable pour défaut d'intérêt légitime, soit en lui 1121 V. 3ème Civ., 25 février 2004, n° 02-15.269, Bull. civ. III, n° 42 ; JCP 2004. 149, obs. F. LABARTHE ; RDC 2004. 636, obs. D. MAZEAUD ; RTD civ. 2004. 279, obs. J. MESTRE et B. FAGES. 1122 En ce sens v . C. GUELFUCCI-THIBIERGE, thèse préc ., n ° 908 et s. 1123 V. P. Le TOURNEAU, La règle Nemo auditur, thèse préf. P. RAYNAUD, L.G.D.J., 1970, n°123 s. ; C. GUELFUCCI-THIBIERGE, thèse préc., n° 900 , l'auteur relève que « certains arrêts ont rejeté l'action en restitution d'une prestation effectuée en vertu d'une convention illicite alors que d'autres l'admettent en matière de contrat immoral ». Il convient toutefois de relever que les arrêts cités en guise d'illustration de l'admission épisodique de l'action en restitutions, alors même que le contrat était nul en raison de son but immoral, concernent spécifiquement des libéralités (v. par ex. 2ème Civ. 10 janvier 1979, Bull. civ. II. 278 opposant une exception d'indignité, soit en constatant que la faute du demandeur est à l'origine de la situation qu'il conteste »1129. Le critère de la légitimité de l'intérêt à agir impose alors, à l'instar des droits anglais et allemand, une analyse de la culpabilité du demandeur dans l'illicéité. Il faut toutefois réserver l'hypothèse où l'analyse même de la norme méconnue imposerait l'obtention par une partie de restitutions. 264. Exceptions au refus des restitutions . L'analyse du sens et du but de la norme méconnue révèle parfois que le refus des restitutions n'est pas toujours approprié, surtout lorsque sont en cause des législations de protection. Ainsi, en droit anglais, si un contrat est illicite et que l'interdiction légale violée vise la protection d'une catégorie de personnes à laquelle appartient l'un des contractants, ce dernier pourra obtenir des restitutions en vertu du contrat illicite1130, ce qui est, d'ailleurs, parfois expressément prévu par la loi1131. Par exemple, comme cela a été mentionné, si une personne conclut un contrat dans le but de développer une activité d'assurance, sans y avoir été autorisée, le contrat est en principe unenforceable. Le Financial Services and Markets Act de 2000 permet toutefois à l'assuré d'obtenir des restitutions des primes d'assurance versées1132. La même solution est retenue en droit français. A titre d'illustration, suivant un auteur, « dans le cas des ventes régies par l'article 1840 du Code général des impôts, l'annulation de la contre-lettre prévoyant le versement occulte d'un supplément de prix laisse admettre l'action en restitution de ce supplément exercée par l'acheteur : l'objectif, qui est de prévention, est de rendre parfaitement aléatoire l opération pour le vendeur qui, si l'acheteur invoque la nullité de la contre-lettre, ne recevra en contrepartie de sa chose que le prix apparent, lequel est par hypothèse inférieur à la valeur de celle-ci. Dans la mesure où il s'agit de donner son plein effet à la règle malgré la tentative des parties de s'en affranchir, c'est par référence à celle-ci et à ses objectifs que devrait être résolue la question des restitutions, et non par l'idée d'un quelconque arbitrage de leur turpitude respective »1133. Il s'agit là d'un cas où les restitutions doivent être déterminées en fonction de la finalité de la norme méconnue. En droit allemand, l'obstacle aux restitutions du § 817 du BGB est pareillement écarté dès lors que le but de la norme méconnue le justifie1134. 1129 G. WICKER, « La légitimité de l'intérêt à agir », art. préc., n° 4, v. aussi n° 19 et s. E. PEEL, G. H. TREITEL, op. cit., n° 11-131. 1131 Par exemple, le Rent Act de 1977 permet au locataire d'avoir restitution des loyers qu'il ne pouvait légalement lui être imposé de payer (v. Browning v Morris (1778) 2 Cowp. 790 ; Barclay v Pearson [1893] 2 Ch. 154 ; Bonnard v Dott [1906] 1 Ch. 740 ; Kasumu v Baba-Egbe [1956] A.C. 539). 1132 J. LOWRY, P. RAWLINGS, R. MERKIN, op. cit., p. 176. 1133 G. WICKER, « La légitimité de l'intérêt à agir », art. préc., n° 20. 1134 V. par ex. BGH 11.01.1984, VIII ARZ 13/83, BGHZ 89, 316. 1130 279 265. Conclusion du chapitre. L'analyse comparative de l'impossibilité juridique de satisfaire les motifs, au regard de leur illicéité, témoigne d'une convergence importante des droits étudiés, tant sur le plan de sa caractérisation que de ses conséquences. L'illicéité des motifs peut ainsi tenir à leur contrariété à une interdiction légale impérative ou, plus largement, à des considérations d'ordre public ou de bonnes moeurs. La distinction est classique en droits anglais et allemand. Le droit anglais distingue ainsi la statutory illegality – l'illicéité fondée sur des textes – de la common law illegality – renvoyant à l'illicéité fondée sur des considérations de public policy (ce qui correspond à la notion d'ordre public). De façon similaire, en droit allemand l'illicéité du but poursuivi peut résulter de l'application du § 134 du BGB relatif aux interdictions légales et de celle du § 138 relatif aux bonnes moeurs (lesquelles s'entendent non seulement des considérations morales mais également de celles relatives à la notion d'ordre public). En droit français, l'article 1162 du Code civil portant sur l'illicéité du but contractuel ne fait référence qu'à l'ordre public. L'illicéité du but peut toutefois, à l'instar des droits anglais et allemand, être fondée sur la violation d'une loi impérative ou encore sur les bonnes moeurs mentionnées à l'article 6 du Code civil. Les cas où des motifs contractuels sont jugés illicites sont alors divers et variés mais les solutions concrètes retenues par les droits étudiés sont globalement assez similaires, des tendances communes pouvant à tout le moins être relevées. Dès lors que l'illicéité d'un motif rattaché au champ contractuel est caractérisée, les droits français, anglais et allemand s'accordent pour retenir l'invalidité du contrat. La cause de l'invalidité – l'illicéité des motifs – conduit alors unitairement à des conséquences particulières sur le plan des effets de l'invalidité du contrat. En effet, bien que la sanction de principe soit, en droits français et allemand, la nullité du contrat, une autre solution peut toutefois être admise si l'analyse du sens et du but de la norme méconnue le justifie. Les résultats concrets obtenus par les droits français et allemand tendent alors à rejoindre ceux du droit anglais qui ne raisonnne pas à partir d'un concept de nullité mais d'unenforceability de l'acte, c'est-à-dire d'absence de droit d'action sur le fondement du contrat. Le principe est ainsi que le contrat dont le but est illicite est unenforceable par l'une ou les deux parties suivant les circonstances : c'est dire qu'il n'est pas question d'anéantissement rétroactif de l'acte et il n'est, de surcroît, pas exclu que le contrat produise certains effets. De plus, en droit anglais, en application des adages ex turpi causa et in pari causa, des restitutions ne peuvent être admises qu'en faveur d'un contractant « innocent » dans l'illicéité s'il s'est exécuté sans rien obtenir en retour. De même, en droit allemand, le jeu des restitutions se retrouve paralysé eu égard à la turpide des parties, le § 817 consacrant l'adage nemo auditur. En droit français, les restitutions sont également susceptibles d'être refusées à l'encontre du contractant dont les motifs illicites conduisent à er le contrat sur le fondement de l'illégitimité de son intérêt à agir. En définitive, le rôle des motifs dans la validité du contrat, au regard de l'impossibilité juridique de leur satisfaction, apparaît très similaire dans les droits français, anglais et allemand. Les résultats concrets des droits étudiés convergent par ailleurs s'agissant de l'impossibilité matérielle de satisfaction des motifs au moment de la conclusion du contrat. CHAPITRE 2 – L'IMPOSSIBILITE MATERIELLE DE SATISFACTION DES MOTIFS 266. La prise en compte des attentes des parties sur le fondement de l'erreur. La validité du contrat dépend de la possibilité matérielle de concrétisation de l'utilité attendue du contrat par les parties. L'idée est alors que le contrat doit être remis en cause lorsqu'il existe un décalage entre la représentation contractuelle d'éléments déterminants de l'engagement – constituant les motifs des parties – et la réalité, de telle sorte que la concrétisation de leurs attentes est, de fait, impossible. Le concept permettant d'invalider le contrat sur le fondement d'une telle impossibilité matérielle de réalisation des motifs est celui de l'erreur. 267. L'erreur spontanée et provoquée en droit français. L'erreur est un concept traditionnel du droit des contrats français. La réforme du droit des obligations n'a pas apporté de modification profonde au régime de l'erreur développé par la jurisprudence à partir des textes du Code civil de 18041135. Pour être prise en compte, l'erreur doit porter, sur les qualités essentielles de la prestation ou du cocontractant et être excusable1136. A côté de l'erreur sur les qualités essentielles de la prestation ou de la personne, le Code civil admet l'erreur sur un « simple motif » 1137 à condition que les parties en aient expressément fait un élément déterminant de leur consentement. C'est ce qui résulte de l'article 1135 du Code civil. L'erreur portant sur d'autres éléments – ne constituant ni des qualités essentielles de la personne ou de la prestation ni des motifs expressément érigés en élément déterminant du consentement – est indifférente. L'article 1136 du Code civil précise que l'erreur sur la valeur de la prestation – dès lors qu'elle ne résulte pas 'une erreur sur les qualités essentielles de cette dernière – n'est pas une cause de nullité. Il en est autrement lorsque l'erreur est provoquée par dol. Un type particulier d'erreur n'a toutefois pas été consacré par le législateur : il s'agit de l'erreur obstacle. L'erreur obstacle est ainsi définie comme le « malentendu radical », le « quiproquo » [v. F. TERRE, P. SIMLER, Y. LEQUETTE, F. CHENEDE, Droit civil, Les obligations, op. cit., n° 275] dont il résulte l'absence de recontre des volontés. L'erreur obstacle soulève alors finalement un problème de rencontre de l'offre et de l'acceptation. Deux hypothèses sont classiquement identifiées : celle de l'erreur obstacle sur la nature du contrat [Ibid., n° 276] – par exemple, l'une des parties pense acquérir le bien objet du contrat que l'autre entend seulement lui prêter – et celle sur l'objet du contrat [Ibid., n° 277] – par exemple lorsque les contractants se mettent d'accord sur un prix mais dans deux devises différentes. Le législateur n'a pas fait le choix d'introduire ce type d'erreur dans le Code civil au moment de la réforme de 2016, en dépit de sa volonté tout à la fois de clarté et d'accessibilité du droit et de l'effort de prédagogie mis en oeuvre. Cette erreur soulève pourtant certaines difficultés notamment du point de vue de sa sanction qui est débatue par la doctrine [v. J. GHESTIN, Y.-M. SERINET, « Erreur », Repertoire de droit civil, Dalloz, uillte 2017, n° 153 à 156]. L'erreur obstacle peut toutefois désormais être appréhendée sur le fondement des dispositions relatives à l'offre et à l'acceptation. En effet, d'après la première partie du premier alinéa de l'article 1113, « [l]e contrat formé par la rencontre d'une offre et d'une acceptation » et, d'après l'article 1118 alinéa 2, « [l]'acceptation non conforme à l'offre est dépourvue d'effet, sauf à constituer une offre nouvelle ». L'erreur obstacle peut ainsi être traitée comme une hypothèse de non-conformité de l'offre à l'acceptation. 1136 V. article 1132 du Code civil. 1137 V. article 1145 du Code civil. D'après l'article 1137 alinéa 1er du Code civil, le dol est « le fait pour un contractant d'obtenir le consentement de l'autre par des manoeuvres ou des mensonges » ou encore, d'après l'alinéa 2, de dissimiler intentionnellement une information dont il sait le caractère déterminant pour l'autre. Le dol permet alors traditionnellement à un contractant d'invoquer une erreur en principe indifférente, la seule condition étant qu'elle ait été déterminante de son consentement 1138. Ainsi, aux termes de l'article 1139, « l'erreur qui résulte d'un dol est toujours excusable » et elle est cause de nullité quel que soit son objet, y compris lorsqu'elle porte sur la valeur de la prestation ou un « simple motif ». 268. La distinction de la mistake et de la misrepresentation en droit anglais. En droit anglais, la sanction de l'erreur se rattache à deux concepts : celui de la mistake et celui de la misrepresentation, le premier recouvrant les hypothèses d'erreurs spontanées et le second celles d'erreurs provoquées. S'agissant de l'erreur spontanée, la mistake, trois types d'erreur sont distingués1139. Un premier type d'erreur se rapporte aux erreurs dites mutuelles (mutual mistakes). Une erreur est mutuelle lorsque les deux parties sont at cross-purposes ce qui correspond à l'idée de l'erreur obstacle du droit français : par exemple, une partie entend vendre son bien et l'autre le louer. Un second type d'erreur concerne les erreurs unilatérales (unilateral mistakes). L'erreur est dite unilatérale lorsqu'elle n'est le fait que d'une partie. Elle est alors difficilement admise. Elle se retrouve toutefois notamment prise en compte, sous certaines conditions, lorsqu'elle porte sur l'identité du cocontractant. Le dernier type d'erreur est l'erreur commune aux deux parties (common mistake). Cela inclut notamment l'erreur sur les qualités essentielles de l'objet du contrat qui se rapproche de l'erreur sur les qualités essentielles de la prestation du droit français. L'erreur sur les qualités essentielles de l'objet du contrat n'est toutefois sanctionnée qu'à la condition qu'elle ne relève pas de la sphère des risques supportés par un contractant 1140 et qu'elle ait été fundamental 1141, c'est-à-dire que l'objet du contrat doit être radicalement différent de la représentation que les parties s'en étaient faite1142. 1138 V. F. TERRE, P. SIMLER, Y. LEQUETTE, F. CHENEDE, Droit civil, Les obligations, op. cit., n° 296. V. E. MCKENDRICK, Contract Law, Text, Cases, and Materials, 5ème éd., Oxford, 2012, p. 519 et s. 1140 V. E. PEEL, G. H. TREITEL, op. cit., n° 8-004. 1141 Ibid., n° 8-002. 1142 La rigueur de la common law dans la prise en compte de l'erreur a conduit au développement, plus souple, de l'erreur en équité (equity). Le maintien en droit positif du régime de l'erreur en équité est néanmoins largement incertain. En effet, non seulement le maintien de la théorie de l'erreur développée en équité a été rejeté par la Court of Appeal – ce qui ne s'oppose toutefois pas à la possibilité, pour la juridiction supérieure, la Supreme Court, de se prononcer en sens contraire – mais elle est, en outre, devenue largement inutile en raison du développement des erreurs admises en common law [v. E. PEEL, G. H. TREITEL, op. cit., n° 8-026]. L'erreur en équité conserve toutefois aujourd'hui un domaine d'application : elle constitue ainsi un moyen de défense à l'encontre d'une demande en exécution forcée, admis pour les erreurs unilatérales [ibid., n° 8-031]. L'équité fonde par ailleurs l'admission par les juges de la possibilité de rectification de l'écrit supposé récapituler l'accord des parties [ibid., n° 8-059 et s.]. L'admission de l'erreur est plus souple sur le fondement de la misrepresentation qui recouvre les hypothèses d'erreur provoquée. La misrepresentation peut sulter d'une intention frauduleuse (fraudulent misrepresentation) – ce qui correspond au dol du droit français – elle peut aussi être due à une négligence (negligent mispresentation) ou encore à un acte purement innocent (innocent misrepresentation) 1143. Sur le plan de son régime juridique, aucune condition relative au caractère fondamental de l'élément erroné n'est imposée au titre de la misrepresentation : il est simplement exigé qu'elle ait été déterminante du consentement du contractant qui en est victime, ce qui est décrit comme le critère de l'inducement 1144. La misrepresentation permet alors de sanctionner des erreurs qui seraient indifférentes sur le fondement de la mistake en common law. 269. Erreur et tromperie dolosive en droit allemand. En droit allemand, l'erreur spontanée est sanctionnée sur le fondement de deux dispositions du BGB : le § 119 et le § 313 (2). Le § 119 (1) distingue l'erreur dans le contenu de la déclaration (Inhaltsirrtum) et l'erreur dans l'expression de la déclaration (Erklärungsirrtum)1145. L'erreur dans l'expression de la déclaration (Erklärungsirrtum) concerne les hypothèses où l'auteur d'une déclaration a commis une erreur dans l'émission de cette dernière1146. L'erreur est, en quelque sorte, technique : l'expression de la déclaration de volonté n'est pas conforme à l'intention de son auteur, de sorte qu'il en résulte une absence de rencontre des volontés 1147. L'erreur dans le contenu de la 1143 V. R. DUXBURY, Contract Law, 2nd Ed., 2011, Sweet & Maxwell, n° 11-020 et s. V. E. MACDONALD, R. ATKINS, op. cit., n° 13.39 et s. 1145 Selon le § 119 (1) du BGB : « [q]uiconque au moment de l'émission d'une déclaration de volonté était dans l'erreur sur son contenu ou qui ne voulait pas du tout émettre une déclaration de ce contenu peut annuler la déclaration litigieuse, lorsqu'il y a lieu d'admettre qu'il ne l'aurait pas émise s'il avait eu connaissance de la situation réelle et s'il avait apprécié le cas raisonnablement » [traduction de l'allemand par G. LARDEUX, R. LEGEAIS, M. PEDAMON, C. WITZ, op. cit]. 1146 Par exemple, il y a erreur dans la déclaration lorsqu'un vendeur souhaite vendre un bien pour une valeur de cent euros mais écrit par erreur dix euros dans son offre. Les volontés des parties ne peuvent alors s'être rencontrées puisque l'une entendait conclure la vente pour le prix de cent euros et l'autre pour le prix dix euros. Il en est de même si l'auteur d'une déclaration de volonté entend conclure la vente dans un prix au gramme alors qu'objectivement le prix s'entend au kilo. Cette hypothèse de non-concordance des volontés semble alors a priori très proche de celle d'un Dissens caché [v. C. ARMBRÜSTER, in Münchener Kommentar zum BGB, 7. Auflge, 2015, § 119, n° 63]. En effet, pour rappel, il y a Dissens caché lorsqu'il y a un défaut d'accord entre les parties sur les éléments nécessaires à la formation du contrat, sans que ces dernières n'en aient conscience. Dès lors, il y a bien, en cas d'erreur dans la déclaration comme dans celui du Dissens, une apparence de contrat qu'il s'agit de contester sur le fondement de l'absence d'accord des volontés. Néanmoins, dans le cas du Dissens caché, il y a un désaccord des parties sans qu'aucune d'elles ne soit fondée à se prévaloir de l'apparence de contrat à l'égard de l'autre. A contrario, il y a erreur dans la déclaration lorsqu'une des parties pouvaient légitimement croire à la validité du contrat conclu suivant une interprétation objective de l'acte. Son cocontractant ne peut alors invoquer l'absence de conclusion du contrat au titre du Dissens : il doit l'annuler – conformément aux §§ 142 et suivant du BGB – sur le fondement d'une erreur dans sa déclaration et il est alors tenu d'indemnniser son cocontractant du préjudice subi du fait de cette annulation. C'est, en effet, là une grande différence du droit allemand avec les droits français et anglais en matière d'erreur : le contractant qui annule un contrat sur le fondement de l'erreur est tenu d'indemniser son partenaire (étant précisé qu'il n'est indemnisé que les intérêts négatifs – negatives Interesse, correspondant aux préjudices subis du fait de la confiance accordée à la validité du contrat – et non les intérêts positifs – positives Interesse, correspondant aux dommages causés par l'inexécution du contrat, au bénéfice qui en était attendu). Cette obligation d'indemnisation, prévue au § 122 du BGB, est toutefois écartée lorsque le contractant qui subit l'annulation aurait dû avoir connaissance de la cause d'annulation [v. § 122 BGB (2)]. C'est dire que, dans ce cas, le caractère légitime des attentes du 1144 285 déclaration (Inhaltsirrtum) concerne quant à elle les hypothèses où le sens objectif de la déclaration n'est pas conforme à l'intention de son auteur au regard, non pas de la ré de sa volonté, mais des éléments de fait objectifs1148. C'est dire que la concrétisation objective de la déclaration ne correspond pas à ce que le déclarant avait en tête. Le (2) du § 119 du BGB assimile à l'erreur dans le contenu de la déclaration « l'erreur sur les qualités de la personne ou de la chose considérées comme essentielles dans les relations d'affaires »1149. De façon tout à fait significative, l'erreur sur les qualités essentielles est décrite comme une exception au principe de l'indifférence de l'erreur sur les motifs1150. L'admission de l'erreur sur les qualités essentielles de la personne ou de la chose suppose toutefois un examen de la répartition contractuelle du risque d'erreur (Risikoverteilung) 1151. contractant sur le fondement du contrat est contredit, de sorte que la situation se rapproche bien ici de celle d'un Dissens caché. L'obligation d'indemnisation à la charge de l'errans apporte une justification à l'admission très large de l'erreur dans la déclaration en droit allemand dans la mesure où elle permet d'assurer un équilibre entre la préservation de la volonté d'une partie et les attentes légitimes de l'autre. L'existence de cette obligation d'indemnisation, qui n'a pas d'équivalent dans les autres droits étudiés, tend toutefois à marquer la singularité de la théorie de l'erreur en droit allemand. 1148 V. C. ARMBRÜSTER, in Münchener Kommentar zum BGB, op. cit., § 119, n° 56. 1149 Traduction de l'allemand par G. LARDEUX, R. LEGEAIS, M. PEDAMON, C. WITZ, op. cit. 1150 V. C. ARMBRÜSTER, in Münchener Kommentar zum BGB, op. cit., § 119, n° 101. 1151 Ibid., n° 112. 1152 La question de l'articulation des §§ 119 et 313 (2) apparaît très délicate et discutée. En effet, d'après l'opinion dominante avant la réforme de 2002 – laquelle a intégré le § 313 dans le BGB – l'application de la théorie du fondement du contrat devait être subsidaire à celle de l'erreur du § 119 du BGB [v. T. FINKENAUER, in Münchener Kommentar zum BGB, 7. Auflage, 2016, § 313, n° 146.]. Aujourd'hui, la doctrine majoritaire considère que les règles du § 313 (2) sont spéciales et doivent donc déroger aux règles du § 119 lorsqu'elles peuvent s'appliquer [ibid., l'auteur relève qu'une partie de la doctrine considère au contraire que le § 119 doit toujours avoir priorité]. D'après un auteur, l'idée serait de retenir le § 313 (2) du BGB pour les erreurs qui sont telles qu'aucune des deux parties n'aurait conclu le contrat si elle avait eu connaissance de la réalité [v. M. JAENSCH, Grundzüge des Bürgerlichen Rechts, 4. Auflage, C.F. Müller, 2018, n° 295]. Le § 313 (2) viserait alors des hypothèses en principe différentes de celles du § 119 (2) du BGB. Suivant les exemples donnés par ce même auteur [ibid.], le § 119 (2) devrait ainsi s'appliquer à la vente portant sur une bague que les contractants pensent être en plaqué or alors qu'elle est en or massif : le vendeur, s'il avait eu connaissance de la réalité, n'aurait sans doute pas conclu la vente au même prix, contrairement à l'acheteur qui aurait fait une bonne affaire. En revanche, dans le cas d'un contrat de vente portant sur un tableau, présenté comme étant d'un certain auteur alors qu'il en est d'un autre – sans que cela n'ait d'incidence sur sa valeur – le § 313 (2) doit s'appliquer dès lors qu'aucune des parties n'aurait conclu le contrat si elle avait eu connaissance de la réalité, de sorte que le nom de l'artiste était déterminant pour les deux parties. L'idée est alors de retenir l'application du § 313 (2) pour des motifs partagés par les parties ayant fondé leur accord. L'article § 313 (2) s'applique notamment en matière de Kalkulationirrtum, c'est-à-dire en cas d'erreur de calcul [v. H. KÖTZ, Vertragsrecht, op. cit, n° 318 et s. et n° 1021]. L'erreur sur la valeur est en principe une erreur indifférente, néanmoins l'erreur de calcul peut être prise en compte lorsque les éléments à la base du calcul du prix, participant du fondement du contrat, sont erronés. Au demeurant, d'après une partie de la doctrine, l'application du § 313 (2) du BGB doit être privilégiée lorsqu'il apparaît injuste, au regard de la participation de l'erreur au fondement du contrat, de faire jouer le § 119 du BGB [v. M. JAENSCH, op. cit., n° 295]. En effet, celui qui annule le contrat sur le fondement du § 119 du BGB est tenu d'indemniser l'autre. Dès lors, en cas d'erreur mutuelle, celui qui agit en premier serait pénalisé en étant obligé de réparer l'intérêt négatif de l'autre partie alors que les deux ont intérêt à la remise en cause du contrat [ibid.]. Nénmoins, d'autres auteurs considèrent que le § 119 toujours avoir la primauté lorsqu'il peut être appliqué, puisque le contractant agissant en premier serait celui à l'égard duquel le contrat est le plus préjudiciable, de sorte que son obligation d'indemniser l'intérêt négatif de l'autre ne serait pas fondamentalement injuste [ibid.]. L'application du § 313 (2) 286 Comme le § 119, le § 313 (2) du BGB suppose une appréciation de la répartition contractuelle des risques : l'erreur n'est admise que si le contractant qui s'est trompé ne peut être considéré comme devant en supporter les conséquences1153. En dehors de l'application des §§ 119 et 313 (2) du BGB, l'erreur est prise en compte lorsqu'elle a été provoquée par une tromperie dolosive (arglistige Täuschung). Section 1 – L'erreur spontanée sur les motifs 271. Objet de l'erreur et répartition du risque d'erreur. L'erreur permet de prendre en compte l'inexactitude de la représentation contractuelle d'éléments déterminants intégrés au champ contractuel. Il ne suffit toutefois pas qu'un motif soit intégré au champ contractuel pour que la nullité du contrat sur le fondement de l'erreur soit encourue. La sanction de l'erreur n'est pas réductible à la question de savoir si le motif est ou non intégré au champ contractuel. L'erreur n'est ainsi admise en droit français qu'à la condition d'être excusable. Cette exigence relative au caractère excusable de l'erreur se retrouve considérée en droits anglais et allemand à travers l'appréciation de la répartition contractuelle des risques. En effet, dans ces droits, l'erreur ne permet de remettre en cause la validité du contrat que si elle ne devrait, en outre, être préférée lorsque l'annulation du contrat n'apparaît pas opportune. En effet, la mise en oeuvre du § 313 conduit à une adaptation du contrat par préférence à sa résolution [ibid., n° 286 et n° 295]. 1153 V. par ex. BGH 13 novembre 1975, BGH NJW 1976, 565 : la nullité du contrat de transfert d'un joueur de foot à un autre club a été retenue sur le fondement de l'absence de fondement du contrat au motif que le joueur avait, à l'insu du club vendeur et du club acheteur, accepté un pot de vin pour perdre un match (acte conduisant à une interdiction de jouer). Le demandeur assume le risque que le joueur ne fournisse pas la performance sportive attendue, ou qu'il assume les conséquences d'une blessure sportive subie avant le changement, ne peut plus être utilisé. En revanche, ce n'est pas le demandeur, mais le défendeur qui est "plus proche" du risque qu'un joueur qu'il emploie soit corrompu et donc "sans valeur" au moment du départ d'un prochain transfert. 1154 V C. ARMBRÜSTER, in Münchener Kommentar zum BGB, 7. Auflge, 2015, § 123, n° 2. 287 constitue pas un risque contractuel pesant sur le contractant qui le subit. Cette analyse en termes de répartition des risques, peu familière du droit français, est tout à fait classique en droits anglais et allemand. Un risque contractuel est supporté par une partie quand celle-ci doit seule en assumer les conséquences, c'est-à-dire qu'il est sans incidence sur le sort du contrat. A ce titre, une partie peut avoir parfaitement connaissance du but poursuivi par l'autre, lequel peut même avoir constitué la base des négociations entre elles et apparaître comme un élément fondamental de la conclusion de leur accord, sans que ce motif soit pris en compte au titre de l'erreur. Dans ces circonstances, ce n'est pas tant le caractère personnel du motif qui est en cause – son caractère extérieur au champ contractuel étant dès lors très discutable – mais le fait que le risque d'impossibilité matérielle de satisfaction de ce motif pèse sur l'un des contractants. L'impossibilité matérielle de satisfaction des motifs n'est prise en compte au titre de l'erreur, similairement dans les droits étudiés, que si deux exigences sont réunies : l'erreur doit porter sur des motifs intégrés au champ contractuel (§1) et elle ne doit pas constituer un risque à la charge du contractant qui l'invoque (§2). §1- L'exigence d'une erreur portant sur des motifs intégrés au champ contractuel 272 . Les motifs intégrés au contrat comme objet de l'erreur. Affirmer que l'erreur permet de fonder la prise en compte de l'impossibilité matérielle de satisfaction des motifs suppose, en premier lieu, d'assimiler son objet à des motifs de l'engagement. Cela n'a rien d'a priori évident, à tout le moins en droit français ù l'erreur sur les motifs est traditionnellement présentée comme une erreur indifférente. Pourtant, l'erreur permet, unitairement dans les droits étudiés, de prendre en compte des éléments essentiels de l'accord qui peuvent être qualifiés de motifs. Tous les motifs des contractants ne sont toutefois pas concernés : il doit s'agir de motifs intégrant le champ contractuel. Si l'erreur permet ainsi de prendre en compte des motifs (A), encore faut-il que ces derniers soient intégrés dans le champ contractuel (B). A- La prise en compte des motifs sur le fondement de l'erreur 273. L'identification de l'objet de l'erreur à des motifs. L'erreur est classiquement appréhendée à travers son objet en droit français. Ainsi, l'erreur admise au titre de la validité du contrat était, avant la réforme, celle portant sur la substance ou la personne, tandis qu'elle est aujourd'hui présentée comme devant porter sur les qualités essentielles de la prestation ou de la personne. A côté de ces erreurs admises, les autres sont alors désignées comme indifférentes dans la mesure où elles ne permettent pas d'invalider le contrat. Or l'erreur sur les 288 motifs figure traditionnellement parmi les erreurs dites indifférentes 1155. Sous cet angle, considérer la prise en compte des motifs au titre de l'erreur semble assez contradictoire avec l'approche traditionnelle du droit français. Le rôle des motifs dans la validité du contrat, sur le fondement de l'erreur, est davantage reconnu en droits anglais et allemand. En effet, en droit anglais la common mistake recouvre les hypothèses où les deux parties ont fait une erreur telle que, d'après le Restatement of the English Law of Contract, « l'exécution du contrat est matériellement ou légalement impossible ou le but du contrat ne peut être atteint au moment où le contrat est formé »1156. Il apparaît, au regard de cette définition faisant expressément référence au but poursuivi, que ce sont bien des motifs qui sont susceptibles d'être pris en compte sur le fondement de l'erreur en droit anglais. A ce titre, la doctrine présente parfois la common mistake comme celle couvrant les « mistaken assumptions » (les présuppositions erronées), de sorte qu'elle est décrite comme une « motivation mistake » (erreur dans la motivation) 1157. En droit allemand, deux textes sont applicables en matière d'erreur : le § 119 (2) du BGB relatif à l'erreur sur les qualités essentielles et le § 313 (2) relatif à l'erreur sur les éléments essentiels. Ces deux dispositions sont alors classiquement présentées comme soulevant un problème d'articulation car elles sont considérées comme ayant un objet identique : elles concernent toutes deux la question de l'admission de l'erreur sur des motifs de l'engagement1158. Au demeurant, affirmer que l'erreur permet de prendre en compte des motifs contractuels ne pose de difficultés qu'en droit français. Pourtant, la nouvelle formulation, par la réforme, des erreurs admises ne laisse aucun doute quant à la qualification de motifs des éléments qui en sont l'objet. 1155 V. par ex. F. TERRE, P. SIMLER, Y. LEQUETTE, F. CHENEDE, Droit civil, Les obligations, op. cit., n° 286. A. BURROWS, A Restatement of the English Law of Contract, op. cit., n° 35 [notre traduction, texte original : "performance of the contract is physically or legally impossible or the purpose of the contract cannot be achieved at the time the contract is made"]. 1157 V. M. CHEN-WISHART, Contract Law, 5th ed., Oxford, 2015, p. 253. 1158 V. par ex. M. JAENSCH, Grundzüge des Bürgerlichen Rechts, 4. Auflage, C.F. Müller, 2018, n° 295 et s. 1156 289 1. Les qualités essentielles de la personne ou de la prestation 274. La qualification de motifs des qualités essentielles. D'après l'article 1132 du Code civil, l'erreur n'est prise en compte que « lorsqu'elle porte sur les qualités essentielles de la prestation due ou sur celles du cocontractant ». Les qualité s substantielles de la chose , aujourd'hui dés ignées comme les qualités essentielles de la prestation, de même que celles relatives à la personne, constituent des motifs de l'engagement des parties. D'après l ' article 1133 du Code civil, ces qualités sont en effet celles en considération desquelles les parties ont contracté, c'est-à-dire des motifs. Ces qualités essentielles précisent alors l'utilité du contrat attendue par les parties. Cela peut être illustré par un exemple : s'il ne peut pas être attendu que le vélo vendu comme une oeuvre d'art soit en état de rouler, tel n'est pas le cas de l'achat d'un vélo tout terrain dans un magasin d'équipement sportif. S'il s'agit bien, dans tous les cas de la vente d'un vélo, les qualités essentielles de ce dernier définissent de çon très claire l'utilité poursuivie par l'acheteur : dans la première hypothèse, la qualité d'objet d'art du vélo indique que ce dernier est destiné à un usage décoratif tandis que, dans la seconde, la qualité de vélo tout terrain témoigne qu'il vise à remplir une fonction de déplacement. L'admission de l'erreur sur les qualités essentielles permet ainsi de garantir l'utilité du contrat poursuivie par les parties et donc de satisfaire leurs motifs. De façon classique, ces qualités essentielles peuvent viser la prestation ou la personne. 275. La personne et la prestation. L'erreur sur les qualités essentielles de la prestation correspond à l'ancienne erreur sur la substance de la chose objet du contrat, d'après le code de 1804. qui font l'objet du contrat mais plus largement les prestations de toute nature1161. Il ne s'agit alors pas seulement de prendre en compte leurs caractéristiques physico-chimiques, mais aussi tous les éléments qui ont une influence sur leur valeur et leur utilité1162. S'agissant des qualités essentielles de la personne, cette dernière peut être un tiers au contrat1163, et non nécessairement le cocontractant comme cela est prévu, en droit français, par l'article 1132 du Code civil. L'erreur sur les qualités essentielles se retrouve également en droit anglais. Il est en effet question de mistake as to an essential quality of the subject matter of the contract, soit d'erreur sur une qualité essentielle de la chose objet du contrat 1164. La chose objet du contrat est traditionnellement entendue au sens strict comme le bien matériel 1165. Néanmoins, l'erreur commune des parties est admise, au-delà de l'erreur sur les seules qualités de la chose matérielle : l'erreur peut ainsi avoir pour objet l'impossibilité d'exécution du contrat tel que voulu par les parties au regard de l'inexactitude de ses éléments essentiels, ce qui permet d'intégrer, plus largement, l'erreur sur les qualités essentielles de la prestation et de la personne1166. Si les qualités essentielles de la prestation ou de la personne constituent ainsi des motifs qui peuvent être pris en compte au titre de l'erreur, il existerait par ailleurs, d'après la présentation du droit français, d'autres motifs pouvant également faire l'objet d'une erreur. Il s'agit des « simples motifs » mentionnés par l'article 1135 du Code civil. Il convient d'identifier quels sont ces autres motifs pris en compte au titre de l'erreur et qui ne constituent pas des qualités essentielles de la personne ou de la prestation. 2. La distinction des qualité essentielles et des simples motifs 276. La distinction en droit français des motifs constituant des qualités essentielles et des simples motifs. L'erreur spontanée peut avoir pour objet deux types de motifs suivant la présentation du droit français : les qualités essentielles – de la prestation ou de la personne – et les autres motifs qualifiés de simples motifs. La distinction posée, entre les motifs qui peuvent être rattachés aux qualités essentielles de la prestation et les autres, repose sur le degré de rattachement du motif visé à l'objet de la prestation. Il s'agirait alors de considérer que seuls les éléments qui ont un rapport direct avec l'objet même de la prestation peuvent être qualifiés 1161 V. R. SINGER, in Staudinger, Kommentar zum BGB, 2012, § 119, n° 95. Ibid. 1163 Ibid., n° 89. 1164 V. M. CHEN-WISHART, Contract Law, 5th ed., Oxford, 2015, n° 6.2 .5.3. 1165 V. E. PEEL, G. H. TREITEL, op. cit., n ° 8-015 et s. 1166 Ibid. 1162 291 de qualités essentielles de cette dernière. Cette approche fondée sur le degré de proximité du motif avec l'objet de la prestation apparaît en réalité discutable puisque les motifs précisant l'utilité de la prestation par les parties peuvent toujours, d'une façon ou d'une autre, être rattachés aux qualités essentielles de la prestation. La solution de l'arrêt à l'origine de l'article 1135 du Code civil relatif à l'erreur sur les simples motifs en témoigne1167. En effet, ce texte consacre la solution d'un arrêt dans lequel la Cour de cassation a refusé d'admettre l'erreur sur l'éligibilité d'un immeuble, objet d'un contrat vente, à un dispositif de défiscalisation, la perspective d'obtention de ces avantages fiscaux constituant un motif que les parties n'avaient pas érigé en condition. Un simple motif étranger aux qualités essentielles de la prestation serait donc, par exemple, le statut fiscal de l'immeuble faisant l'objet d'un contrat de vente. D'après MM. CHANTEPIE et LATINA, cette qualification de simple motif n'est pas justifiée et « [l]e statut fiscal ne devrait pas être, en toute hypothèse, considéré comme extérieur aux qualités essentielles de la chose, objet du »1168. En effet, ainsi que l'expliquent ces auteurs « l'erreur sur l'aptitude d'une chose à réaliser la fin poursuivie est considérée comme une erreur portant sur l'objet du contrat » et, à ce titre, « l'erreur sur la constructibilité d'un terrain, qui n'est rien d'autre qu'une erreur sur la situation de l'immeuble au regard des règles d'urbanisme, est considérée comme une erreur sur ses qualités essentielles! »1169. Dans le même sens, d'après d'autres auteurs, la distinction des motifs constituant des qualités essentielles et des simples motifs est d'une difficulté insoluble dans la mesure où « les mobiles ont trait généralement à une utilité particulière à laquelle l'errans destine le bien ou la prestation. Or toute utilité, aussi fantaisiste soit-elle, peut bien être qualifiée abstraitement de qualité attendue de la chose »1170. 292 qualités essentielles et le § 313 (2) relatif à l'erreur sur les éléments essentiels. Ces deux dispositions sont considérées comme ayant un objet identique : l'erreur sur des motifs de l'engagement. La question se pose alors de savoir quels sont les éléments qui permettraient de distinguer le champ d'application respectif des §§ 119 (2) et 313 (2) du BGB. Le critère de distinction fondé sur le rattachement direct ou non du motif à l'objet du contrat est purement et simplement rejeté en raison de son artificialité et de son impraticabilité1171. En effet, il est considéré que les motifs peuvent toujours, d'une façon ou d'une autre, être rattachés à des qualités essentielles, ce dont témoigne la jurisprudence 1172. Les qualités essentielles de la prestation au sens du § 119 (2) ne s'entendent en effet pas seulement comme les qualités immédiates ou objectives de la prestation1173. Les éléments essentiels d'après le § 313 (2) peuvent donc, dans l'absolu, être qualifiés de qualités essentielles de la prestation. C'est dire que les motifs traités au titre du fondement du contrat ne sont pas d'une nature très différente de ceux relevant de l'erreur dans le contenu de la déclaration : il s'agit de motifs déterminant l'utilité de l'engagement. Ces considérations du droit allemand confirment l'incertitude de la distinction faite en droit français entre, d'une part, les motifs qualifiés de qualités essentielles de la prestation et, d'autre part, les simples motifs. En droit anglais, comme le relève la doctrine, l'application de l'erreur aux situations dans lesquelles l'utilité poursuivie par la conclusion du contrat ne peut pas être satisfaite ne correspond ni plus ni moins qu'à une acception large de la notion d'impossibilité d' exécution1174. C'est dire qu'il s'agit en toute hypothèse d'une impossibilité d'exécution du contrat tel que convenu par les parties, de sorte que l'objet de l'erreur admise peut toujours être rattaché à des qualités essentielles de la prestation. La question ne se situe alors pas en droit anglais sur le plan de l'appréciation du caractère plus ou moins direct du motif avec l'objet de la prestation mais sur celui de savoir si ce motif participe de la définition de la prestation1175. Ainsi, ce qui compte, en définitive, c'est le fait que le motif porte sur un élément essentiel intégré au champ contractuel. 1171 V. R. SINGER, in Staudinger, Kommentar zum BGB, 2012, § 119, n° 88. Ibid. 1173 Ibid. 1174 A. BURROWS, A Restatement of the English Law of Contract, op. cit., p. 178. V. aussi M. CHEN-WISHART, Contract Law, 5th ed., Oxford, 2015, p. 255. 1175 V. E. PEEL, G. H. TREITEL, op. cit., n° 8-019 : « Some particular quality may be so important to them that they actually use it to identify the thing. If the thing lacks that quality, it is suggested that the parties have made a fundamental mistake , even though they have not mistaken one thing for another, or made a mistake as to the existence of the thing, as such ». 1172 293 B- La condition de l'intégration des motifs dans le contrat 278. La nécessité de l'intégration du motif objet de l'erreur. Il ne suffit pas que la représentation erronée qu'une partie s'est faite de la réalité porte sur un élément déterminant de son consentement pour que l'invalidité du contrat puisse être retenue sur le fondement de l'erreur. Il est nécessaire que le motif visé soit convenu par les parties et donc qu'il intègre le champ contractuel en tant qu'élément présupposé constituant le fondement du contrat, de sorte que son inexactitude doit pouvoir conduire à remettre en cause ce dernier. Ainsi, en droit français, les qualités essentielles de la prestation sont, aux termes de l'article 1133 du Code civil, celles qui ont été convenues par les parties, l'erreur sur un simple motif n'étant par ailleurs admise, d'après l'article 1135, qu'à la condition que ce dernier ait été essentialisé par les parties. En droit anglais, l'erreur ne peut également être admise qu'à la condition de porter sur des ments déterminants convenus par les parties. La solution de l'arrêt Smith v Hughes1176 en fournit une illustration. Un contrat de vente d'une certaine quantité d'avoine avait été conclu entre un fermier, le vendeur, et un éleveur de chevaux de course, l'acheteur. Ce dernier refusa d'exécuter le contrat au motif qu'il avait clairement indiqué vouloir acheter de la vieille avoine, qualité que ne présentait pas l'avoine vendue, provenant de la dernière récolte. Bien qu'il fût admis que la qualité de l'avoine avait été déterminante du consentement de l'acheteur, l'erreur ne fut pas admise. 1176 Smith v Hughes (1871) L.R. 6 QB. Ibid. [notre traduction, texte original : « his argument proceeds on the fallacy of confounding what was merely a motive operating on the buyer to induce him to buy with one of the essential conditions of the contract »]. 1177 294 La question qui se pose, unitairement dans les droits étudiés, est celle des techniques de l'intégration des motifs dans le contrat, qui peuvent être identifiées à partir du régime de l'erreur. 279. Distinction des procédés exprès et tacites d'intégration des motifs. Deux procédés d' intégration des motifs dans le champ contractuel peuvent être unitairement identifiés dans les droits étudiés . En effet, l'intégration des motifs susceptibles de faire l'objet d'une erreur peut être tacite ou expresse. Ces deux procédés d'intégration des motifs dans le contrat constituent des procédés somme toute classiques de détermination du contenu du contrat. C'est ce qu'il convient d'établir en considérant d'abord l'intégration tacite (1), puis l'intégration expresse (2) des motifs dans le contrat. 1. L'intégration tacite des motifs dans le contrat 280. La notion d'interprétation raisonnable du contrat. Pour être pris en compte au titre de l'erreur et conduire à invalider le contrat, les motifs dont la satisfaction est, ab initio, matériellement impossible doivent être des éléments participant du fondement du contrat, c'està-dire qu'ils doivent constituer une présupposition déterminante de l'accord des parties. A ce titre, les motifs peuvent être considérés comme intégrés tacitement dans le champ contractuel à partir d'une interprétation raisonnable du contrat, eu égard à sa nature. L'idée est alors que l'objet du contrat induit, en tant que tel, la présupposition de certain motifs. Ces derniers sont, pour ainsi dire, évidents et naturellement intégrés au contrat. Par exemple, lorsqu'un contrat porte sur l'achat d'un véhicule automobile neuf, le fait qu'il soit en parfait état de rouler est tacitement convenu : il n'est pas nécessaire que les parties aient expressément érigé ce motif en élément déterminant de la conclusion du contrat. Une interprétation raisonnable du contrat conduit ainsi à considérer que certains motifs intègrent nécessairement le champ contractuel. L'identification des motifs qui intègrent tacitement le contenu du contrat s'opère alors suivant le degré de typicité de l'accord : certains motifs vont ainsi être considérés comme tacitement convenus dès lors qu'ils constituent des éléments qui peuvent être raisonnablement et généralement présupposés par les parties à un contrat de ce type1178. 1178 V. en ce sens J. ROCHFELD, thèse préc., n° 270 : « Dans les contrats typiques, le champ contractuel se trouve automatiquement délimité : entrent dans le contrat les « objectifs normalement poursuivis par la conclusion de telle ou telle espèce de convention », c'est-à-dire tous les éléments compris dans la structure habituelle du type, et auxquels pouvait ainsi s'attendre chacune des parties. Ceux-ci se trouvent automatiquement connus d'elles et insérés dans leurs « prévisions », puisqu'ici, la « cause résulte de la nature même du contrat conclu », c'est-à-dire de sa structure et de son processus de motivation habituelle, cristallisée dans une définition institutionnalisée ».
45,291
2011BESA1035_4
French-Science-Pile
Open Science
Various open science
2,011
L'histoire vivante médiévale. Approche socio-anthropologique.
None
French
Spoken
7,328
10,842
La question de la réflexivité doit être centrale et sans cesse se poser au chercheur ; c'est un outil lui permettant de minimiser au maximum les biais qu'il pourrait introduire dans son champ d'enquête. « Le travail de terrain doit ainsi être animé par un principe de réflexivité. S'imposer la discipline de décrire les "choses telle qu'elles sont", idéal inaccessible mais indispensable, suppose tout un travail pour se départir de ses idées reçues, de ses prénotions et de ses préconceptions. Non pas s'en défaire puisque ces préjugés [...] sont un passage obligé pour ouvrir un horizon de compréhension ; mais les neutraliser autant que faire se peut [...]. [La réflexivité] passe par une distanciation des représentations sociales pour ne pas confondre des discours et des actes et faire la part du crédible et de la fabulation. Elle est un travail sur soi et sur l'ancrage de son organisme dans des environnements qui prévient la réification de l'imaginaire dans le réel [...]. »92 90 Daniel Cefaï (2003) , « Postface », in Daniel Cefaï ( textes réunis par), L ' Enquête de terrain , op. cit ., p . 517. 91 I bid ., p. 522. 92 Ibid., p. 524. 60 - Cette réflexivité se met en place lors de l'échange entre chercheurs, de débats sur l'analyse effectuée, mais aussi lors de l'interaction avec les informateurs, sorte de « coopération »93 entre le chercheur et les enquêtés, puis lors de la publication des résultats et la manière dont ils sont reçus. Bref, cette notion de réflexivité, qui permet de prendre du recul par rapport à son travail de terrain, d'en « sortir », passe essentiellement par les moyens de médiations à disposition du chercheur. Elle doit avoir lieu à tous les stades de l'étude afin de garantir le bon fonctionnement et déroulement de l'enquête. Pour conclure sur ces quelques réflexions, la méthodologie employée pour cette étude prend à la fois en compte des éléments sociologiques et ethnologiques. Ce que l'on retiendra principalement de la pratique ethnographique est la notion de communauté. En effet, d'un point de vue historique, « le modèle ethnologique se nourrit des situations empiriques définies par un ensemble de critères bien connus (petite dimension des sociétés étudiées, unités sociales isolables, importance des relations immédiates de parenté, de voisinage, spécialisation économique, réduite...). Ces critères induisent l'idée de "communauté", comme unité de recherche ethnologique fondamentale. Cet aspect "synthétisant" de l'ethnologie est directement associé à l'ensemble des médiations théoriques permettant de comprendre la présence de la totalité culturelle dans un événement singulier. La médiation essentielle entre la singularité et la totalité est l'idée même d'"homogénéité" ou d'"identité partagée" au sein d'une même communauté qui se respecte, ancrée dans un lieu circonscrit »94. Dans cette optique, il est alors possible de parler de socio-ethnologie ou plus humblement de socio-ethnographie pour le travail de terrain, si l'histoire vivante est analysée sous l'angle d'une communauté. Cependant, il s'agit de garder à l'esprit que les différents terrains pratiqués ne sont pas inertes, mais doivent être inscrits dans une continuité, un flux qui agit sur l'ensemble de la pratique. F. Comment rendre compte ? Une fois l'enquête de terrain effectuée, il est nécessaire de pouvoir en rendre compte. Là encore, cette manière de faire s'inscrit dans la pratique méthodologique et invite à plusieurs réflexions. Plusieurs moyens peuvent permettre de montrer le sujet d'étude : d'une part, la rédaction et, de l'autre, la photographie. 93 Ibid., p. 525. Albert Piette (1996), Ethnographie de l'action, Paris, Métailié, p. 56. F.1. La rédaction : rendre compte par l'écriture L'écriture occupe un statut particulier tout au long de l'étude, des notes de terrain à la rédaction finale. Elle est ainsi un outil important qui prend une place différente à chaque étape. Au cours des observations, l'écriture est présente à travers la prise de note et le journal de terrain, tenu au moment même de l'étude. Pour cette enquête, différents positionnements dans l'espace ont été mis en place, afin de saisir un maximum d'interactions sociales mais aussi pour ne pas développer une position trop en marge par rapport aux activités de rigueur. Par la suite, toutes les notes prises sont organisées et présentées sous la forme d'un texte, mettant aussi bien en avant des annotations de méthodes que des éléments renvoyant davantage à la théorie. Ces données, une fois consignées, renvoient à des séquences d'observations et ne sont pas nécessairement présentées dans leur ordre chronologique (Peretz, 1998). Ces textes font aussi état de la place du chercheur et des réflexions épistémologiques qui peuvent survenir au cours du terrain. De plus, des parties de conversations peuvent être retranscrites dans ces documents. Ainsi, chaque observation a fait l'objet d'abord de notes de terrain, puis de notes réorganisées, permettant de « s'extraire » de l'observation et de souligner certains faits importants, de méthode ou de théorie. Cette rédaction demande quelques points de régularité, afin d'obtenir un ensemble relativement homogène qui permettra la comparaison. Le présent est le temps employé, ainsi que la forme active. De même, il est important de faire attention à l'importation de « significations exogènes »95, de ne pas entrer dans un ethnocentrisme latent. « Trop souvent, les notes de terrains ethnographiques manquent de prêter attention aux significations des membres de façon cohérente. Au lieu de quoi, elles importent des catégories exogènes. L'imposition de catégories exogènes produit des descriptions de terrain qui échouent à apprécier à leur juste valeur les significations et les préoccupations locales, et qui tendent à cadrer les événements pour ce qu'ils ne sont pas (c'est-à-dire en référence à des catégories et des standards qui diffèrent de ceux que reconnaissent et emploient les membres). »96 Les informations prises durant l'observation doivent tenir compte d'une certaine réflexion épistémologique : elles permettent de maintenir la notion de « proche-lointain » active, de 95 Robert Emerson, Rachel Fretz et Linda Shaw (2010), « Prendre des notes de terrain. - ne pas faire oublier au chercheur sa position et son raisonnement en termes de réflexivité. Elles sont un support et une aide au terrain, l'écrit aidant à la distanciation nécessaire à l'analyse ultérieure. Enfin, les notes tendent à présenter les interactions observées et donner ainsi du sens aux catégories mobilisées par le groupe dans le contexte de l'échange communicationnel. Ces notes « ne consigneront pas comment les membres parlent de divers objets sociaux en général et hors contexte, mais comment les membres coproduisent du sens au travers de leurs interactions avec d'autres membres du groupe, comment ils interprètent et organisent effectivement leurs propres actions et celles des autres »97. Cet outil d'écriture employé sur le terrain apparaît comme essentiel et central pour la suite de la recherche. Il permet l'organisation et la réflexivité nécessaire pour la rédaction. Des indications correctement rédigées sont par ailleurs la seule « preuve » du terrain en tant que tel. Pour ces deux raisons, elles doivent être rigoureuses et considérées comme un objet de l'enquête à part entière. Un autre moment important au cours de l'étude qui mobilise la pratique de l'écrit, est le temps de la rédaction. C'est en effet le moyen qui va servir à rendre compte du travail d'enquête dans son ensemble, mais c'est aussi le média le plus souvent employé, en comparaison des supports vidéos ou audios. Plusieurs raisons peuvent expliquer cette prédominance : d'un point de vue historique, l'écriture est celle qui a vu les débuts de la sociologie et de l'ethnologie. De même, traditionnellement parlant, la recherche scientifique s'expose à travers l'écrit. Les autres supports présentent certains avantages et inconvénients : si l'on s'en tient à l'exemple de la vidéo, cette façon de procéder permet de saisir un morceau de la vie du chercheur sur son terrain, de donner à voir, à proprement parler, la manière dont se déroule l'étude. Le problème souvent évoqué d'un compte rendu par le visuel est celui de la sélection du regard ainsi proposé. La caméra ne peut filmer que d'un seul point de vue et ne donner à voir qu'un événement à la fois. Il ne s'agit pas de discuter des tenants et aboutissants de l'utilisation de tels supports dans le compte rendu de la recherche, mais bien de rappeler que la vidéo et, plus largement, l'utilisation de nouvelles technologies, ne sont pas seules à faire des choix et à centrer le regard du chercheur. En effet, l'écriture, bien qu'elle paraisse exhaustive dans sa manière de rendre compte, est aussi une sélection de la part de celui qui rédige. Il est illusoire de croire que l'écrit peut présenter de manière une et indivisible le travail de terrain. Des sélections sont toujours opérées, ne serait-ce que pour présenter la recherche de manière claire et 97 Ibid., p. 167. 63 - organisée. Toute donnée est construite et n'est pas un strict miroir de la réalité ou de l'enquête en tant que telle. Garder ceci en mémoire lors de la rédaction permet d'éviter les sélections abusives et réinstaure un point important de la méthodologie et du recul nécessaire à la compréhension du phénomène étudié. L'idée du tri est à mettre en avant pour signifier cette étape, si l'on retient que « rédiger, c'est trier dans la conscience pour construire les faits observés »98. Plus précisément, la description utilisée pour rendre compte des observations réalisées en amont apparaît comme une part importante de la rédaction. Comme le rappelle François Laplantine, « décrire, de-scribere, signifie étymologiquement écrire d'après un modèle, c'est-à-dire procéder à une construction, à un découpage, à une analyse au cours de laquelle on se livre à une mise en ordre [...]. La composition intervient dès les carnets de terrains des ethnographes »99 . Le fait de décrire apporte une organisation du réel ainsi qu'une notion de « traduction, au cours de laquelle le chercheur produit plus qu'il ne reproduit »100 ; la description ajoute une donnée supplémentaire à la simple observation : elle a pour but d'être comprise par autrui et le chercheur doit apporter les codes nécessaires à sa compréhension. L'écriture est, à toutes les étapes de la recherche, mais plus particulièrement lors de la rédaction finale, une « organisation textuelle du visible » et l'un de ses objectifs est la « lutte contre l'oubli »101 ; puisque le regard est périssable, l'écriture doit permettre la transmission. Le regard et l'écrit ne sont pas des activités simultanées, mais bien employées successivement, tout en demeurant dépendantes l'une de l'autre. Pour ce qui est de la manière d'intégrer les notes de terrain, en m'appuyant sur les distinctions énoncées par Henri Peretz102, j'ai choisi de privilégier au maximum la méthode qu'il nomme de « Type A », qui vise à une analyse synthétique et à une reformulation des annotations de terrain. Il n'est cependant pas exclu d'employer les textes de type « B et B' », qui présentent les notes de façon indépendante de l'analyse qui s'ensuit ; tout est fonction de l'objectif visé et de la place accordée à certaines indications, qui peuvent éclairer de manière singulière ou très précise un point particulier. Enfin, pour clore cette partie sur la manière de rendre compte, il semble nécessaire de s'arrêter quelques instants sur le principe de l'évaluation de la rédaction finalement 98 Jean Peneff (2009), Le Goût de l'observation, Paris, La Découverte, p. 161. François Laplantine (2005), La Description..., op. cit., p. 36. 100 Ibid., p. 39. 101 Ibid., p. 29. 102 Cf. Henri Peretz (2009), Les Méthodes en sociologie : l'observation, Paris, La Découverte. 64 - présentée. Tout comme lors de l'enquête de terrain, et peut-être plus encore, le chercheur se doit d'observer une neutralité axiologique, lui permettant de garder ses distances avec le sujet, afin de transmettre des résultats non biaisés. Pourtant, comme le rappelle Daniel Cefaï, « s'il est nécessaire de ne pas choisir son camp, il est impossible de ne pas être choisi par un camp. L'ethnographe est, par définition, amené à se placer dans la perspective de ses enquêtés, et aussitôt soupçonné de parti-pris à leur égard, souvent mis en demeure de déclarer "de quel bord" il est » 103. C'est effectivement un point auquel j'ai parfois été confrontée, même si la formulation n'était pas énoncée de la même manière. L'écriture, des notes de terrain à la rédaction finale, permet de dissocier les deux personnalités du chercheur : celui qui est in situ, pratiquant l'observation participante, souvent sollicité, parfois pris à partie, sans cesse dépendant du terrain et de son contexte ; et le chercheur employant l'écrit dans le but de présenter de la manière la plus neutre possible ses analyses, « le pari [étant] qu'il est possible de décrire sur un mode naturaliste, sans dénigrer, ni encenser »104. Pourtant, le principe de neutralité axiologique au sein de la rédaction est, comme lors du travail de terrain, laissé à la seule appréciation de l'enquêteur, puisque « l'ethnographie souffre de ne pas disposer d'une "rhétorique de la preuve" aussi puissante que celle de la méthode statistique »105. Il semble pertinent de relever les sept critères d'évaluation proposés par Jack Katz106 pour les textes ethnographiques ; cet auteur souligne les réflexions pouvant être posées quant aux « données » mobilisées, partant du sujet même de la recherche jusqu'au compte rendu. Ces éléments doivent présenter « une absurdité, une énigme ou un paradoxe », « avoir une valeur stratégique », dans le sens où elles « corroborent explicitement une explication telle qu'elle est proposée, tandis qu'elles infirment, dans le même mouvement, une explication alternative », elles doivent aussi être « riches et variées » afin de faciliter « la disqualification d'hypothèses concurrentes », elles ont pour objectif d'être « révélatrices » et doivent être « situées ». Enfin, lors de la phase de rédaction, les données concourent à une description « esthétique, vivante et colorée » et « rendent compte de moments poignants ». Ces différents niveaux permettent de confronter la recherche à plusieurs critères visant à améliorer la production 103 Daniel Cefaï (2010), « Bien décrire pour mieux expliquer », in Daniel Cefaï (sous la dir. de), L'Engagement ethnographique, op. cit., p. 38. 104 Ibid., p. 39. 105 Ibid. 106 Jack Katz (2010), « Du comment au pourquoi. Description lumineuse et inférence causale en ethnographie », in Daniel Cefaï, L'Engagement ethnographique, op. cit., p. 48. 65 - ethnographique. Ces conceptions ont servi en quelque sorte d'auto-évaluation, dans le but de rédiger un texte cohérent ethnographiquement parlant. L'écriture est une manière de rendre compte du travail de terrain et l'outil principal du chercheur en sciences humaines d'une façon générale ; elle permet la prise de note puis la présentation des travaux et leur transmission. Pour ces raisons, elle se doit de respecter certaines règles afin de conserver un regard neutre sur l'objet de la recherche. Toutefois, l'écrit n'est pas le seul instrument au service de l'ethnographe. Il ne convient pas de tous les aborder mais de présenter celui qui a été utile au cours de l'enquête, à savoir la photographie. F .2. Les photographies : rendre compte par le visuel Daniel Cefaï rappelle, dans la postface de son ouvrage107, que le chercheur n'est pas toujours acteur de son enquête et que le travail de terrain, notamment l'observation participante, peut le placer dans une position de « passivité ». L'auteur souligne que « l'enquêteur n'est pas maître de son enquête : il ne saisit du sens qu'en tant qu'il est saisi par du sens. Le propre du travail de terrain est d'être un savoir qui assume d'être situé ». Cette citation complète le point de vue énoncé plus haut : le chercheur est positionné dans un rôle par les enquêtés. C'est à ce prix qu'il peut faire partie du groupe et entretenir des liens avec eux, comme dans toute interaction normale. Mais ce qui est défini dans l'espace, ce qui permet d'interagir, est bien le corps, qui apparaît comme un vecteur pour le positionnement de l'enquêteur. Ce n'est pas une conscience abstraite qui se déplace sur le terrain : le corps joue un rôle essentiel lors de l'observation. Il doit, à ce titre, être également pris en compte pour la réflexion épistémologique. Tous les sens sont en effet mobilisés, lors de l'observation participante en particulier. La vue, de prime abord, semble être souvent l'organe auquel l'enquêteur recourt le plus. C'est bien de cette manière que se réalise l'observation, le fait même de regarder. L'ouïe, ensuite, permet de s'insérer dans des conversations par exemple, de noter ce que la vue ne permet pas toujours de saisir. Ces deux sens semblent aller de soi pour la pratique de l'observation, mais le goût et l'odorat sont tout autant essentiels. Le premier va permettre de se familiariser avec la cuisine, notamment pour mon terrain, et souvent d'aller plus loin dans la compréhension du groupe, ne serait-ce que parce que la préparation des repas est un sujet souvent abordé. Quant à 107 Daniel Cefaï (2003), L'Enquête de terrain, op. cit., p. 549. 66 - l'odorat, il remplit quasiment les mêmes fonctions : une familiarité accrue avec le lieu d'enquête. Le toucher, enfin, est sans doute le meilleur vecteur de l'expression corporelle. Il favorise le rapport direct à l'objet, aux gestes et aux techniques. La question du toucher renvoie directement à la notion de corporéité en situation d'enquête. « Le corps percevant, agissant et parlant est le medium de la compréhension, et c'est à travers les épreuves qu'il traverse qu'un sens émerge petit à petit. Mon corps est cet organe d'exploration du monde [...], mon corps est cet organe de présentation en public. »108 Daniel Cefaï expose la notion de « praxis corporelle », qui plonge l'enquêteur au sein de son lieu d'étude et lui permet d'en faire partie intégrante. Ainsi, le corps « livre un accès immédiat à la façon dont les acteurs vivent concrètement, donne une compréhension des activités en train de se dérouler, des milieux en train de se bâtir, des relations en train de se nouer, des savoirs en train de se faire »109. Lors de l'enquête, tous les sens sont mobilisés, ils se complètent et permettent d'obtenir une vision globale du champ de recherche. Mais la perception demeure abstraite et le propre de l'enquêteur. Pour cette raison, il faut la convertir et la fixer sur un support matériel. Schématiquement, il est possible de dire que l'odorat, le goût et le toucher vont être des perceptions beaucoup difficiles à transmettre lors d'un compte rendu, à moins de recueils particuliers. Mais le goût, qui renvoie à la cuisine, ne peut guère être fixé dans un support à long terme. Pourtant, il demeure évident que, lors d'une enquête, tous les sens concourent à la présentation finale qui sera donnée. Il est cependant plus aisé de rendre compte de la vue par une photographie par exemple que de l'odorat, qui passera presque nécessairement par un support écrit et qui ne fera donc plus appel au même organe lors de la réception. L'ouïe offre un statut assez particulier : les méthodes d'enregistrement peuvent fixer des conversations sur un support qui sera ré-écoutable par la suite. Quant au toucher, la collecte d'objets par exemple, peut révéler cette perception. Mais celle-ci n'en restera pour autant que partielle, les artefacts n'étant plus dans leur contexte d'origine. Ainsi, si l'écrit permet, lors de la présentation de l'enquête, d'exprimer plusieurs perceptions, les sens mobilisés lors de l'observation et lors du compte rendu ne seront pas identiques. La vidéo peut cependant apparaître comme un bon compromis pour rendre compte d'une pluralité de sens. Ce support n'a pas été utilisé au cours de l'enquête, faute de temps et de moyens. La photographie a été privilégiée, alliant ainsi directement la vue à un support donné. 108 Ibid., pp. 544-545. Ibid., p. 545. L'image permet de produire une certaine connaissance du terrain ethnographique. La photographie peut apparaître à deux niveaux : pendant l'enquête, comme support et complément de la mémoire de l'observateur (ce qu'il a pu voir), et pendant le compte rendu, afin de faire partager une vision particulière d'un instant donné sur le terrain. La photographie a été employée au cours de ces deux temps. Prendre des clichés au moment de l'observation, sans choisir une scène ou envisager une construction possible de la réalité, permet, lors du visionnage de ces photographies, de faire ressurgir des éléments parfois oubliés, non notés dans le journal de terrain. Ou bien de mettre en lumière certaines hypothèses. C'est un appareil réflexe numérique qui a été utilisé : il a l'avantage d'avoir un temps de déclenchement rapide et ainsi la possibilité de saisir une scène en action. Généralement, ce type de clichés n'est pas construit mais présente un moment de l'observation parmi d'autres. À l'inverse, certaines photographies sont mises en scène, dans le sens où le but recherché est de saisir une donnée qui sera représentative d'une situation. Cette question de la construction de l'image interroge une fois encore la méthodologie employée sur le terrain. Les photographies prises « sur le vif » ne sont pas nécessairement représentatives d'une donnée, d'un moment particulier spécifique au terrain, bien qu'elles capturent un moment de vie. Ce type de cliché a davantage servi à construire le regard ethnographique et, par la suite, l'analyse de la situation. La restitution par le visuel de faits particuliers, représentatifs du terrain étudié, a nécessité la prise d'autres images. Il s'agissait de savoir ce que l'on voulait présenter. À la manière du compte rendu écrit, où le chercheur sait ce qu'il veut présenter, la photographie peut être construite en fonction de ce qui mérite d'être mis en lumière. Par exemple, pour les gestes, il a été demandé aux artisans de se mettre en situation de travail afin de prendre le cliché. L'image est ainsi construite, dans le sens où elle n'est pas prise de manière spontanée, mais révèle ce que le chercheur veut montrer, ce qu'il voit, ce qu'il veut présenter de ces analyses à travers le visuel et enfin ce qu'il peut partager avec les lecteurs ou, pour être plus juste ici, avec les visionneurs. À noter que l'appareil photographique est, dans ce cas, un outil, une extension du corps et des perceptions : « Le travail de sélection des matériaux pertinents pour des analyses de situation va de pair avec la démultiplication réfléchie des angles d'approche et des grandeurs d'échelle en cours d'enquête et avec un usage raisonné des capacités corporelles et de leurs extensions dans des outils tels que la caméra. »110 Dans le cadre de 110 Ibid., pp. 545-546. 68 - cette enquête, l'objet « appareil photographique » n'a pas posé de problème puisque « prendre des photos » fait partie intégrante des morceaux de vie observés sur le terrain. Pour élargir la réflexion sur la pratique photographique en ethnologie, il est possible de s'arrêter quelques instants sur les analyses menées par Albert Piette sur cette thématique. Partant du principe que la photographie est un support de connaissances trop souvent délaissé en ethnographie, il fait l'hypothèse qu'elle « constitue une véritable catégorie de pensée ou un mode de connaissance particulier entretenant un rapport tout aussi particulier aux choses, différent en tout cas de la peinture et de l'écriture »111 et qu'elle comprend en elle une « force représentationnelle [...] face aux exigences de la complexité de la vie sociale et par rapport à l'inadéquation de l'écriture, qu'elle soit journalistique ou scientifique, l'une privilégiant une description colorée et trop arbitraire, l'autre, analytique, intellectualisant et schématisant trop »112. De plus, la photographie « présente une puissance de désignation qui lui assure sa qualité heuristique de base : montrer, faire voir, attirer notre attention »113. L'auteur met en avant différents points propres à cette pratique, telles la distance spatiale et temporelle instaurée par rapport à l'objet, la coupure dans le réel et la platitude du support. Afin de garantir la fiabilité et la méthodologie de cette technique, Piette souligne plusieurs faits qui doivent être pris en compte : l'identification des prises de vue, le respect d'un échantillonnage photographique, la comparaison et la juxtaposition de clichés et enfin la mise en place d'un « cycle d'observation photographique »114. Mais il ne faut pas oublier que « l'image n'est pas le réel », puisque « l'acte photographique implique nécessairement une sélection dans les données du réel »115. Le photographe fait partie intégrante de son cliché, ce dernier n'est pas neutre et doit être pensé dans ce rapport sujet-image. Ainsi, la production photographique apparaît, pour Albert Piette, comme une véritable ressource à mobiliser dans l'enquête ethnographique, un mode de connaissance probant et qui doit être valorisé en sociologie. Il rappelle qu'il ne s'agit pas de parler « en termes de vérité ou de fausseté »116, puisque la photographie ne présente que ce qui « est ». 111 Albert Piette (1992), « La photographie comme mode de connaissance anthropologique », Terrain, n° 18, mars, p. 130. 112 Albert Piette (1996), Ethnographie de l'action, op. cit., p. 150. 113 Ibid. 114 Albert Piette (1992), « La photographie... », op. cit., p. 134. 115 Ibid., p. 135. 116 Albert Piette (1996), Ethnographie..., op. cit., p. 154. 69 - Marcel Mauss recommande lui aussi l'usage de ce support, allant même jusqu'à aborder le thème de la « méthode photographique » : « On ne fera jamais trop de photos, à condition qu'elles soient toutes commentées et exactement situées : heure, place, distance. »117 Là encore, commenter les photographies est primordial, afin de pouvoir faire le rapprochement entre l'objet sur papier et la pratique ethnographique réalisée en amont. De même, le nombre de clichés pris doit être important, afin d'avoir une base de données complète. Envisager la photographie comme un outil de recherche à part entière permet d'aborder le terrain d'un autre point de vue et d'apporter un complément à l'écriture. Dans le cadre de la recherche, certaines limites sont à prendre en compte : je n'ai pas la prétention de présenter la photographie comme un outil à part entière. En effet, certaines prises de vue ne correspondent pas aux critères définis par Piette et, bien qu'elles aient été systématiques pour chaque terrain, elles ne répondent pas toujours à ceux d'un « cycle d'observation photographique ». Ceci est dû aux contraintes de temps imposées par la recherche mais aussi parce qu'il s'agit d'une première découverte de cette manière de faire. C'est pourquoi le support visuel sera, dans cette étude, employé comme un outil de présentation et non pas comme support de connaissance sociologique. Les clichés viendront compléter le compte rendu écrit, afin de mobiliser le sens de la vue quant aux images, dans le but de donner une idée visuelle au lecteur d'un fait expliqué par écrit. En conclusion, il s'agit de rendre compte d'une manière « classique », par le biais de l'écrit, mais en attirant l'attention sur les supports photographiques et l'intérêt qu'ils peuvent apporter à un texte sociologique. Il n'est pas exclu de poursuivre ultérieurement le travail sur le thème de l'histoire vivante en appuyant la réflexion sur la connaissance ethnologique par le biais de la photographie. Mais, pour le moment, les images resteront un complément de l'écriture. Ce premier chapitre a permis d’approcher l'objet de recherche, de le délimiter quant à son ancrage théorique et méthodologique, ainsi que de cerner la manière de rendre compte du travail de terrain dans son ensemble. Il est à présent question de s'intéresser de manière plus précise à la réalisation de l'enquête, et en particulier à l'observation participante mise en place. 117 Marcel Mauss (1989), Manuel d'ethnographie, Paris, Payot, p. 19 (1re éd. : 1947). 70 - CHAPITRE II : L’OBSERVATION PARTICIPANTE Il s’agit d’exposer une méthode centrale de la réalisation de l'enquête, à savoir l'observation participante. En premier lieu, une délimitation de la méthodologie doit être faite, suivie de la place de celle-ci au sein du processus de recherche. Enfin, une présentation des différents terrains observés sera effectuée. A. Définition et présentation de la méthode A.1. Définitions Le principe même d'observation participante doit être soumis à un travail de définition, afin de bien circonscrire la méthode employée. Il faut tout d'abord rappeler que le terme d'« ethnologie » désigne l'ensemble de la démarche pour le travail de terrain et implique un savoir dual : sur l'autre mais aussi sur soi-même (Copans, 2005). Une fois encore, le propre des sciences humaines est de produire un savoir sur d'autres êtres humains, en ce sens, le chercheur intervient nécessairement dans le déroulement de son enquête ; c'est pourquoi la place de l'enquêteur est si importante à prendre en compte. L'observation peut demander une implication différentielle du chercheur, en fonction du type de méthodologie employée. En reprenant les distinctions opérées par Gilles Ferréol et al.118, deux grands types d'observations peuvent être dégagés : directe et participante. La première renvoie davantage à une position externe du chercheur par rapport au groupe enquêté, tandis que la seconde, « expérimentée par les ethnologues », implique l'enquêteur, incluant l'idée d'être accepté par le groupe, afin d'en saisir les quotidiennetés. Au sein même de l'observation participante, le chercheur peut être à découvert ou bien caché. Pour cette recherche en particulier, nous l'avons vu, j'ai choisi d'être à découvert, pour des raisons à la fois éthiques et pratiques. Il n'était pas nécessaire de dissimuler mon identité, l'acceptation se faisant en amont des terrains, par la présentation à la fois de la recherche et des costumes. L'observation pratiquée fournit des données particulières : des faits tels qu'ils sont vécus et ressentis par les informateurs, mais également ceux qui ne sont pas visibles de prime abord et que l'observateur se doit de mettre à jour. Les éléments recueillis consistent en observations, mais aussi en conversation in situ, en prise de contact pour des entretiens ultérieurs, etc. Afin de préciser davantage ce qu'est l'observation participante, il est 118 Gilles Ferréol (sous la dir. de) (2002), Dictionnaire de sociologie, op. cit., pp. 66-67. 71 - nécessaire de citer Daniel Cefaï119 : « Le terme a été conçu par Eduard C. Lindeman, qui entendait par là l'incorporation d'un enquêteur à un groupe, si possible sans en perturber les activités ordinaires. » L'étude réalisée entre bien dans ce cadre, ma présence sur le terrain n'ayant pas modifié le déroulement habituel des activités : quelques remarques amusées ont parfois été effectuées de la part des participants sur ma présence mais, passé ce temps, mon statut s'est rapidement fait oublier. De manière plus précise, Goffman met en avant l'importance du contrôle du rôle que l'on présente, quelle que soit la situation d'interaction : « Lorsque nous examinons comment l'individu participe à l'activité sociale, il nous faut comprendre que, en un certain sens, il ne le fait pas en tant que personne globale, mais plutôt en fonction d'une qualité ou d'un statut particulier ; autrement dit, en fonction d'un moi particulier. »120 Il s'agit de donner à voir le rôle défini à un moment précis, en l'occurrence lors du travail d'observation. Cette façon de s’exposer se révèle comme une présentation de « son propre corps et de sa propre personnalité [...] à tous les imprévus pouvant toucher un ensemble d'individus, afin de pénétrer physiquement et écologiquement leur réponse à la situation sociale »121. Il faut évoquer la manière d’effectuer ce travail d’observation. Comme le rappelle très justement Jean Peneff, l'observation directe ne contraint pas le chercheur de la même manière que l'observation participante, mais ne lui donne également pas accès aux mêmes données : « Le sociologue, observateur extérieur non directement concerné par l’action en cours, ne subit pas, comme l’observateur participant, la contrainte du temps, le poids de la durée [...]. L’observateur non participant est plutôt dans la situation de l’usager de loisirs qui a du temps à perdre, des activités libérées, qui relâche le contrôle dans l’emploi de son temps. »122 Pratiquer l'observation participante, c'est donc prendre part aux activités observées et accepter d'être soumis à diverses contraintes induites par ces différentes tâches. De plus, l'observation ainsi mise en place apparaît comme une situation sociale particulière : « Elle se présente bien comme une interaction proprement dite, disons une relation de face à face entre l'observateur et la (les) personne(s) observée(s). L'acte de recherche est lui-même un processus d'interaction en situation naturelle qui sollicite la 119 Daniel Cefaï (2003), « Post face », in Daniel Cefaï (textes réunis par ), L'Enquête de terrain, op. cit., p. 501 . 120 Erving Go ffman (1974), Les Rites d'interaction, trad. fr., Paris, Minuit, p. 47 (1re éd. américaine : 1967). 121 Erving Goffman, cité par Albert Pierre (1996), Ethnographie..., op. cit., p. 88. 122 Jean Peneff (1995), « Mesure et contrôle des observations dans le travail de terrain », Sociétés contemporaines, n° 21, janvier-mars, p. 122. 72 - compétence des interactants et donc aussi celle du chercheur. »123 Cela permet de replacer l'observation au sein d'un contexte particulier : l'interaction, à laquelle le chercheur ne peut échapper. Quant à la manière de faire, « les méthodes de travail de l'observateur sont celles de la vie quotidienne et de toute interaction ordinaire »124. Le parallèle avec les travaux réalisés par Goffman peut alors être fait puisque, comme le souligne Piette, « il y est toujours question de la présentation de soi »125. Le chercheur se donne à voir dans l'interaction, il occupe une place particulière et n'échappe pas aux règles qui s'appliquent dans ce contexte. L'idée de « garder la face », concept cher à Goffman126, est centrale : le chercheur doit maintenir le « rôle » qu'il s'est choisi dans l'interaction, afin de la mener à bien. Pour ma part, j'ai décidé de prendre part à la vie quotidienne lors de mon terrain, au même titre que les autres participants. Cette position adoptée permet de laisser de côté, du moins lors d'une interaction, le rôle du chercheur. La prise de note, par exemple, permet le changement de statut et le retour à un autre rôle. « L'observation participante en tant qu'elle constitue un accès progressif aux savoirs pertinents et partagés est d'abord une forme de socialisation plutôt qu'une participation de type affectif ou psychologique à quelque groupe [...]. Le chercheur dispose d'une capacité de distance critique et de réflexivité ordinaire qui maintiennent la possibilité d'effectuer son analyse. Ce jeu de distance-proximité peut d'ailleurs s'accomplir à partir d'un compartimentage entre les deux activités. »127 Ainsi, passer d'une activité à une autre ou, pour le dire autrement, d'un rôle à un autre, permet au chercheur de « définir la situation », selon les termes employés par Goffman. Au cours de mon travail d'observation, je me suis basée pour partie sur l'un des concepts définis par ce dernier, à savoir l'observation dite interactionnelle, le but étant de concentrer le regard sur les formes d'interactions en vigueur dans le groupe étudié. Une partie de l'observation se focalise sur l'interaction qui devient à son tour objet d'étude. J'ai choisi de placer cette manière de faire au centre, afin de mettre en lumière les notions d'échange et de transmission qui ont lieu par le biais des interactions quotidiennes. Ainsi, le type de méthode choisi comprend l'observation participante, qui engage le chercheur dans la 123 Albert Piette (1996), Ethnographie..., op. cit., p. 68. Ibid., p. 69. 125 Ibid. 126 Cf . Erving Goffman (1974), Les Rites d'interaction, trad . fr ., Paris, Minuit (1re éd. américaine : 1967), par exemple. 127 Albert Piette (1996), Ethnographie..., op. cit., p. 71. 124 73 - quotidienneté du terrain analysé, mais aussi une observation de type interactionnelle, qui permet de se focaliser sur les échanges et les rôles observés, ainsi que sur la manière dont les acteurs définissent la situation qu'ils sont en train de vivre. A.2. Intérêts de cette méthode À l'inverse d'autres types d'observation, celle qui est participante permet une entrée complète et directe sur le terrain. Pourtant, comme n'importe quel groupe social, ceux délimités par l'histoire vivante sont soumis à des impératifs, et il ne suffit pas de vouloir en faire partie pour être accepté. Nous l'avons vu dans une partie précédente, certains impératifs sont nécessaires (costumes, etc.) ; il ne s'agit pas de revenir sur ces détails, mais de montrer en quoi l'observation participante constitue une bonne première approche du phénomène. Étant donné la nature même du terrain, il était impossible d'envisager une autre forme d'observation : d'une part, ma présence aurait été particulièrement incongrue et, de l'autre, le fait de se sentir « observé » par une personne « extérieure » aurait sans doute modifié les comportements des enquêtés. C'est donc pour une prise en compte de la méthodologie adéquate que mon choix s'est porté sur l'observation participante. Ensuite, débuter l'enquête par des observations, au lieu d'entretiens ou de questionnaires, a permis de préciser l'objet de recherche. En outre, une fois bien intégrée aux participants, les places de chacun bien définies, les réponses sont facilitées lors de la passation de questionnaires ou de demandes d'entretiens. Débuter le terrain de cette façon permet d'instaurer la notion de confiance entre le chercheur et les enquêtés. Au fur et à mesure de l'avancement de la recherche, les participants savaient pourquoi j'étais présente et j'ai alors pu constater une véritable demande de retours et un fort besoin de reconnaissance sociale. Le fait d'être sur place, de participer pendant toute la durée de la manifestation, instaure naturellement des interactions et une compréhension autrement impossible, par exemple, avec uniquement des entretiens. À propos du travail de terrain comprenant « une part d'observation analytique », Jean-Michel Chapoulie présente bien les logiques propres à ce type d'enquête : « Le travail de terrain ne permet sûrement pas d’apporter des preuves au sens que l’on peut donner à cette expression en statistique. Mais tel n’est pas non plus en général l’un des objectifs principaux des recherches de terrain. Pour celles-ci, il s’agit davantage de découvrir différentes dimensions des phénomènes sociaux considérés [...], à commencer par celles qui n’étaient pas nécessairement envisagées par le chercheur avant 74 - son arrivée sur le terrain [...]. Faire accéder le lecteur à l’univers symbolique d’une ou plusieurs des catégories d’acteurs étudiés, en dégageant les logiques sociales qui s’incarnent dans leurs comportements, qui peuvent renvoyer au contexte des actions ou aux caractéristiques des acteurs, est un autre objectif fréquemment poursuivi [...]. »128 Le choix de l'observation répond à des logiques méthodologiques, afin de mieux définir et analyser le terrain et les phénomènes sociaux qui s'y rapportent. D'un autre côté, les premières observations participantes permettent la transformation du regard nécessaire à l'analyse ethnographique. Il est nécessaire d'apporter une nouvelle ouverture sur le sujet analysé, et ceci d'autant plus que le chercheur travaille sur sa propre société. Une importante distinction doit être opérée entre « voir » et « regarder ». François Laplantine donne sur ce thème de nombreux points de réflexion : « Le mot voir [...] est utilisé pour désigner un contact immédiat avec le monde qui ne nécessite aucune préparation, aucun entraînement, aucune scolarité [...]. Voir, c'est recevoir des images. La perception ethnographique n'est pas, quant à elle, de l'ordre de l'immédiateté de la vue, de la connaissance fulgurante de l'intuition, mais de la vision (et par conséquent de la connaissance) médiatisée, distancée, différée [...]. Regarder est un mot qui a été forgé au Moyen-Âge et dont le sens nous parvient encore aujourd'hui : regarder, c'est garder, prendre garde à, prendre soin de [...]. »129 Observer d'un point de vue ethnographique nécessite une forme d'apprentissage, l'acquisition d'un « regard » particulier qui tend à mettre en valeur les significations non visibles de prime abord. Les premières observations participantes permettent cette transformation du regard, ce changement de perception par rapport aux présupposés en vigueur. Cette analyse apparaît comme essentielle dans la mesure où le chercheur enquête sur sa propre société : il doit être d'autant plus vigilant à laisser de côté ses prénotions sur le thème abordé. L’observation favorise par ailleurs l’accès direct aux données, la collecte ne dépendant que du chercheur. « La documentation sur laquelle s’appuient généralement les sociologues – documents d’archives, questionnaires et témoignages – est structurée par les systèmes de catégorisation utilisés dans la société qui produit cette documentation. Les catégories du langage ordinaire jouent un rôle central dans cette structuration, ainsi que les catégories en usage dans la société considérée, notamment les catégories des statistiques 128 Jean-Michel Chapoulie (2000), « Le travail de terrain, l'observation des actions et des interactions, et la sociologie », Sociétés contemporaines, n° 40, octobre-décembre, pp. 19-20. 129 François Laplantine (2005), La Description ethnographique, op. cit., pp. 17-18. 75 - administratives et les catégories de perception et de jugements des acteurs ordinaires – ceux qui répondent aux entretiens, remplissent les questionnaires, ou qui produisent les documents conservés par les archives. En d’autres termes, les catégories constituées de la société étudiée constituent un filtre de l’information que peut obtenir le chercheur chaque fois qu’il utilise ces différents types de sources. »130 Cette remarque de Chapoulie montre que le chercheur est nécessairement soumis aux catégories de pensée propres à la société qu'il étudie et, dans ce cadre, à sa propre société. Les données ne sont pas neutres et appartiennent à des classifications pré-définies. Il s'agit, pour l'enquêteur, d'être vigilant quant à ces données, et leur mode de production doit lui aussi être pris en compte. L'observation permet de minimiser ces catégorisations : « La démarche d’observation accorde donc au chercheur une plus grande latitude dans la construction analytique que d’autres démarches (comme l’entretien). Elle permet éventuellement de tester immédiatement sur le terrain les inférences faites, par la mise à l’épreuve, au moment même de la prise des notes de terrain, des distinctions retenues dans le codage de ce qui est observé. »131 L'observation est un outil important puisqu'elle permet d'obtenir une vision du fait étudié en dehors des « filtres » de catégorisations. Ces changements dans la perception de l'objet autorisent peu à peu la construction des faits sociaux pour l'analyse ultérieure. Marcel Mauss, s'interrogeant sur la nature de ces faits, rappelle la nécessité de « substituer aux notions du sens commun une première notion scientifique », et définit les « caractères objectifs comme les caractères que tel ou tel phénomène social a en lui-même, c'est-à-dire ceux qui ne dépendent pas de nos sentiments et de nos opinions personnelles »132. Plus loin, il précise que « la sociologie doit faire plus que décrire les faits, elle doit, en réalité, les constituer ». En ce qui concerne leur observation, « les phénomènes sociaux, plus que tous autres, ne peuvent être étudiés en une fois dans tous leurs détails, tous leurs rapports. Ils sont trop complexes pour qu'on ne procède pas par abstractions et par divisions successives des difficultés »133. La construction de ces faits est permise, pour l’étude, par une approche participante. La 130 Jean-Michel Chapoulie (2000), « Le travail de terrain , ...», op. cit. , p . 20. Ibid., p. 21. 132 Marcel Mauss et Paul Fauconnet (1901), « La Sociologie, objet et méthode », texte issu de l'article « Sociologie », in La Grande Encyclopédie, vol. 30, Paris, Société anonyme de la Grande Encyclopédie [En ligne : http://classiques.uqac.ca/classiques/mauss_marcel/essais_de_socio/T1_la_sociologie/la_sociologie.html, p. 22. 133 Ibid., p. 23. 131 76 - définition de l'objet, sa précision, tant au niveau de sa définition que de sa méthodologie, permet de délimiter les faits sociaux observés et pris en compte. Un autre intérêt de cette méthode qu'est l'observation, réside dans l'aide qu'elle peut apporter afin de passer du « comment » au « pourquoi ». En effet, c'est là que se tient toute la difficulté de la recherche ethnographique : de l'observation qui répond à la question du « comment », il s’agit ensuite de passer à une autre interrogation, celle du « pourquoi ». Le travail de terrain en général favorise ce changement de perspective, tout en permettant de saisir de manière pertinente le premier terme de l'équation. Ainsi, l'activité du chercheur oscille entre deux axes : « D'une part la tâche de collecter et de présenter des données, en vue de montrer comment la vie sociale prend la forme qui est la sienne, et, d'autre part, le défi explicatif de produire un argument convaincant, qui explique pourquoi la vie sociale fonctionne comme elle le fait. »134 A.3. Manières de réaliser l'observation La position occupée par le chercheur est un élément essentiel à prendre en compte.
154
21/tel.archives-ouvertes.fr-tel-01235030-document.txt_8
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,468
10,937
Ce contrat est très formaliste car nécessaire à assurer la sécurité juridique des personnes intéressées à la restructuration notamment les actionnaires, les créanciers321 et les tiers. Ce formalisme protectionniste est affirmée dans les deux législations quoique dans la mise en oeuvre des divergences assez pratiques existent étant entendu qu'il apparaît que l'effort du législateur français est à la simplification de cette procédure par l'allègement des formalités requises ce ci en vue de renforcer la compétitivité des entreprises en éliminant des contraintes ou en ouvrant de nouvelles flexibilités dans l'optique d'une réduction des coûts liés aux fusions et en limitant les obligations y relatives. Ces simplifications en dépit de certaines incohérences pourraient influencer le législateur OHADA dans la rénovation de son droit des restructurations d'entreprises où les formalités de publicité, d'élaboration et de mise à disposition des documents de la restructuration, de tenue de l'assemblée générale extraordinaire, de désignation de l'organe de contrôle génèrent d'importants frais qui, pour notre part pourraient décourager les entreprises d'y recourir. Or les restructurations permettent aux entreprises de l'espace OHADA de s'affirmer dans un environnement concurrentiel dominé par la mondialisation qui impose le regroupement à peine de disparaître. 434. Mais cette simplification des règles applicables par l'assouplissement du formalisme ne sera pas sans poser de difficultés notamment en ce qui concerne la protection du droit des actionnaires, des tiers et des créanciers. Par exemple, l'absence d'un rapport sur les modalités de la fusion peut constituer une diminution significative du degré d'information des actionnaires appelés à se prononcer sur la fusion. 321 Notons que la protection du droit des créanciers n'a pas été abordée dans le cadre de nos travaux quoiqu'ils peuvent entraver l'opération de restructuration par la mise en oeuvre de leur droit d'opposition. 142 435. Nonobstant ces inconvénients, l'intérêt du recours à la technique contractuelle pour définir l'opération de restructuration s'explique par le fait que son processus est calqué sur la formation du contrat322. D'autre part, les problématiques liées à l'intransmissibilité de certains contrats intuitu personae notamment, de même que la responsabilité pénale peuvent être solutionnées dans ce mécanisme par l'insertion dans le contrat de restructuration des clauses relatives à leur transmission ou des clauses de garantie du passif par lesquelles la société absorbante pourra se prévaloir en faveur de la société absorbée. La jurisprudence estimant dans cette hypothèse qu'une société absorbante peut se prévaloir d'une clause de garantie de passif stipulée en faveur de la société absorbée lors de la cession des titres de celle-ci même en l'absence de mention de la clause dans le traité de fusion323. La solution est justifiée puisqu'en matière de fusion absorption, la société absorbante est de plein droit substituée dans l'ensemble des droits et obligations de la société absorbée par l'effet de la restructuration. Seule une stipulation contractuelle pourrait heurter l'application du principe de la transmission universelle du patrimoine. En pareille occurrence, ce serait l'application de la force obligatoire prévue par l'article 1134 du code civil. 436. Dès lors, c'est par la technique contractuelle qu'il convient de réaliser une opération de fusion. Toutefois, à côté de cette conception existe une autre à laquelle le législateur devrait s'intéresser et qui prend des proportions dans les relations économiques tant nationales qu'internationales. Cette autre conception tend à utiliser la restructuration par voie de fusion comme un moyen de financement. 322 Cette conception contractuelle comme nous le verrons pourrait contribuer à faciliter les restructurations transfrontalières . 323 Cass.com., 10 juillet 2007, n° 05-14.358, Bull.Civ.IV, n° 192 , BRDA 2007 , n° 18, inf.1. 143 Section II L'instrumentalisation de l'opération de restructuration dans les montages financiers de type LBO324 437. La définition de la notion de montage juridique se déduit naturellement des éléments conceptuels du montage325. Il s'agit de l'élaboration dans un contexte juridique donné d'une construction faite de plusieurs actes dont la réalisation permettra aux parties de dépasser la situation objective qui les contraint actuellement. 438. Sociologiquement, le montage est ainsi un phénomène par lequel le droit et la liberté contractuelle permettent d'aller au-delà de l'esprit de certains actes ou contrats spéciaux pour mieux servir certains intérêts économiques326. Il s'agit d'une technique juridique finalisée apparaissant comme un assemblage ou une succession organisée d'actes indépendants, destinés à produire des effets particuliers327. Affirmer que la fusion est instrumentalisée dans les montages financiers revient à dire que cette opération va être utilisée dans la chaîne des opérations ou des actes juridiques nécessaires à la finalité de ces opérations. C'est dire que l'objectif ou l'effet principal recherché à travers le recours au mécanisme de fusion n'est pas tant de transmettre un patrimoine dans son universalité, mais plutôt d'utiliser le mécanisme à des fins de financement voire de remboursement d'un emprunt contracté pour prendre le contrôle d'une autre société. 439. La présente étude va tendre à appréhender les modalités d'instrumentalisation des fusions dans le cadre de ces opérations complexes. La restructuration par voie de fusion 324 Le Leverage buy out est un montage juridique permettant à un entrepreneur d'acquérir le pouvoir dans une entreprise, et plus généralement une société, grâce à l'acquisition de la majorité des titres par l'intermédiaire d'une structure qu'il contrôle et qui procède à l'acquisition souhaitée avec ses fonds propres et divers emprunts. Les concepteurs d'une telle opération doivent s'intéresser à la fois à chacun des actes qui la compose, mais également à la validité et à l'équilibre de l'opération prise dans son ensemble. Voy. PORACCHIA D., La réception juridi que des montages conçu s par les professionnel s du droit, 1998 , PUAM 325 Le montage peut revêtir plusieurs formes . Voy DUCOULOUX-FAVARD C. montages juridiques Petites affiches, 24 octobre 2006 n° 212, p. 8. 326 DOM J.P., les montages en droit des sociétés, édition JOLY sous la direction de Paul LE CANNU, n° 15, p.17. 327 DOM JP, op.cit., n° 20, p.19. 144 est le débouché naturel de l'opération de Leverage Buy Out, plus communément appelée LBO328 et suit très rapidement l'acquisition de la société cible. La seule motivation de cette opération réside plus dans la possibilité d'imputer les charges financières de la holding créé dans le cadre du LBO sur les résultats bénéficiaires de la société cible avec laquelle la fusion est organisée. Cette instrumentalisation est bien structurée (para I). Mais il faut être conscient des obstacles qui pourraient entamer sa réalisation. Aussi, ce mécanisme est très controversé tant par la loi que par la doctrine. (para II) Para I la structuration montage 440. La restructuration à travers le mécanisme de transmission universelle du patrimoine va permettre de rembourser un emprunt contracté par une société nouvellement créée ou existante pour acquérir le pouvoir de direction d'une entreprise saine et prospère. La fusion n'est motivée que par des impératifs financiers visant l'apurement des charges voire des pertes financières. Ces opérations consistent en l'acquisition d'une société cible par une holding dédiée et spécifiquement financée à cette fin ; et sa mise en place assure un effet de levier financier (acquérir la cible grâce à l'endettement financier), juridique (contrôler la société cible sans en détenir directement le contrôle) et fiscal (déduire du résultat de la holding les intérêts financiers de la dette ayant permis l'acquisition de la cible). 441. Cette finalité de la fusion à laquelle le législateur devrait s'intéresser est la résultante d'un processus élaboré par la pratique dont la structuration passe par une phase préalable au cours de laquelle un holding créé va recourir à l'endettement (A) pour après fusionner avec la société cible(B). A. La phase préalable du montage 442. L'intérêt du LBO est de procéder à l'acquisition d'une entité avec un investissement en capital relativement faible. En l'occurrence, il s'agit d'un montage juridique permettant à un entrepreneur d'acquérir le pouvoir dans une entreprise et plus généralement une société, grâce à l'acquisition de la majorité des titres par l'intermédiaire d'une structure qu'il contrôle et qui procède à l'acquisition souhaitée avec ses fonds propres et divers emprunts. Les concepteurs d'une telle opération doivent s'intéresser à la fois à chacun des actes qui la composent mais également à la validité et à l'équilibre de l'opération prise dans son ensemble329. La création d'une structure destinée à l'acquisition de l'entité désirée (1) ainsi que son endettement (2), induisent un effet de levier juridique et financier et constituent les phases préalables de ce montage. 1. la constitution du holding d'acquisition 444. Le LBO et ses dérivés nécessitent la mise en place d'un montage juridique offrant des opportunités en termes d'effets de levier. L'acquisition de la cible se fait par l'intermédiaire d'une holding qui devra si elle n'existe pas déjà, être créée pour l'occasion, et être dotée des fonds propres nécessaires à la réalisation de l'opération. La question que nous traiterons dans le cadre de cette partie sera consécutive à la forme de la société à utiliser pour mettre en place le montage espéré. 445. Tous les types sociétaires peuvent a priori, être choisis pour mener une opération de LBO. En pratique, les structures dans lesquelles les associés engagent indéfiniment leur responsabilité au côté de la société sont le plus souvent exclues330. La maximisation de l'effet de levier juridique pourrait conduire à adopter la forme de société en commandite par actions pour la société holding331. Cependant, parce que cette forme sociale confère aux commandités le pouvoir sans que les commanditaires (en l'espèce, les investisseurs) ne puissent réellement exercer un contrôle sur eux ; cette forme sociale semble peu utilisée lors des LBO. La SARL, même si elle apparaît plus attractive depuis l'ordonnance o n 2004-274 du 25 mars 2004332, notamment par sa faculté d'émettre des obligations, restera certainement une structure marginale des holdings de tête lors des LBO. Cette forme sociale ne permet pas d'organiser librement la géographie du capital puisqu'en cas de cession, 329 PORACCHIA D., La réception juridique des montages conçus par les professionnels du droit, PUAM, 1998, 330 V. cependant sur les intérêts pouvant exister de créer une holding sous forme de SNC, BERTREL J.-P., o Ingénierie juridique : le « montage Tapie », Dr. et patrimoine 1998, n 59, p. 24. 331 . BERTREL J.-P et JEANTIN M., op. cit., p. 342 ; TURCK M., Société en commandite par actions et effet de levier juridique, JCP, éd. E, 1994. I. 377 ; BUCHER F., Du bon usage de la commandite par actions, Rev. sociétés 1994, p.415. 332 LIENHARD A., Les assouplissements du régime de la SARL, D. 2004, chron. 930 ; LÉCUYER H., o Commentaire de l'ordonnance du 25 mars 2004 dans ses dispositions relatives aux SARL, LPA 2004, n 77, o p. 4 ; SAINTOURENS B., L'attractivité renforcée de la SARL après l'ordonnance n 2004-274 du 25 mars 2004, Rev. sociétés 2004.207. 146 l'agrément du cessionnaire tiers à la société reste obligatoire333 ; ce qui ne conviendra pas le plus souvent aux investisseurs. 446. De facto, les deux types de structures le plus souvent utilisées pour la holding seront la SA et la SAS. Ces deux structures présentent l'avantage de pouvoir émettre des valeurs mobilières destinées à combler les voeux des investisseurs en capital et de certains prêteurs qui acceptent de voir leur dette subordonnée. 447. En toute hypothèse, la pratique reste encore tournée vers la création de holding sous la forme de sociétés anonymes, cette forme sociétaire étant bien connue des investisseurs étrangers et en particulier, outre-Atlantique, par les fonds de capital-risque. En outre, on peut remarquer que la SA présente l'avantage d'offrir aux actionnaires qui désirent exercer leurs prérogatives, un vrai pouvoir de contrôle sur la direction, pouvoir renforcé par les lois récentes et influencés partiellement par la théorie du gouvernement d'entreprise, théorie qui selon certains auteurs innerverait la pratique des LBO334. 2. Le financement du holding 448. Le LBO repose sur un fort endettement du holding qui est la source de l'effet de levier financier. La dette du holding est généralement structurée en fonction du risque de non remboursement accepté par l'emprunteur. Ce risque s'accompagne d'un taux de rendement plus ou moins important. 449. Le financement de la holding d'acquisition se réalise par l'apport en capitaux propres mais également par voie d'emprunt. Le recours à l'endettement constitue en effet un élément essentiel des opérations de LBO. La dette destinée à financer l'acquisition de la cible par la holding, permet de réaliser l'effet de levier financier inhérent à ce type d'opérations. La pratique a développé plusieurs types et niveaux d'endettement toujours assortis de sûretés. 450. Ces types d'endettement sont variés et dépendent souvent du montant du financement recherché. La dette bancaire dite senior, constitue l'outil principal du LBO. Elle peut être complétée par une dette dite junior (terminologie parfois plus largement utilisée pour 333 334 C. com., art. L. 223-14 KAPLAN S., L'héritage des LBO, www.lesechos.fr 147 désigner toute dette subordonnée), ainsi qu'un financement hybride dit mezzanine. Nous nous attarderons dans le cadre de cette étude, à ces types de financement étant précisé que les praticiens peuvent imaginer d'autres types. a. la dette senior 451. La dette senior est octroyée par un établissement de crédit. Généralement consentie pour une durée de l'ordre de 5 à 7 ans, elle comporte souvent une tranche amortissable annuellement et une partie remboursable à l'échéance du prêt. Cette dernière tranche dite in fine permet de limiter la pression exercée par le service de la dette sur le niveau de trésorerie du groupe. b.la dette junior 452. La dette dite junior est celle dont le remboursement est subordonné à l'amortissement du prêt principal. Sa date de maturité est donc souvent postérieure à l'échéance de la dette senior. Ces dernières années, la pratique a par ailleurs développé le recours à des financements bancaires intermédiaires additionnels eux aussi subordonnés à la dette senior. c-La dette mezzanine 453. Lorsque l'endettement bancaire est insuffisant compte tenu du montant recherché, la mezzanine vient s'intercaler entre la dette bancaire et les fonds propres. Souvent consenti par des fonds d'investissement spécialisés, le financement mezzanine est généralement structuré sous forme de valeurs mobilières donnant accès au capital (notamment d'obligations convertibles en actions). 454. Ce type de financement hybride est d'une durée plus longue que les prêts bancaires ; environ 10 ans et amortissable in fine. Subordonnée au remboursement de la dette bancaire, la mezzanine comporte ainsi un risque excédant celui pris par la banque prêteuse. En contrepartie de ce risque, les "mezzaneurs" bénéficient d'une opportunité de gain supérieur grâce à un taux d'intérêts plus élevé mais également à un droit d'accès au capital permettant ainsi la réalisation d'une plus-value de cession. 455. Le fait que l'accès au capital ne soit qu'optionnel et à terme évite lors de la mise en place du LBO une dilution de l'actionnariat de la holding, offre au "mezzaneur" le choix 148 entre devenir actionnaire ou percevoir un intérêt additionnel qui prend la forme d'une prime dite de non-conversion. Les actionnaires repreneurs préfèrent parfois des emprunts obligataires à très fort taux d'intérêt dits high yield à la mezzanine dans la mesure où ils n'offrent pas aux prêteurs la possibilité d'accéder au capital de la holding. B. La transmission universelle du patrimoine de la société Cible au Holding 456. L'opération de fusion se traduit par la réunion de deux sociétés afin de n'en former qu'une seule. Pour que cela se concrétise, il faut réunir les patrimoines des deux sociétés. Cette transmission universelle du patrimoine dans le cadre du LBO est très importante dans la mesure où elle va permettre au holding de rembourser par les actifs de la cible, l'emprunt contracté lors de sa constitution. C'est la raison pour laquelle, la société cible doit avoir des caractères(1) et les deux sociétés doivent avoir un intérêt commun (2). 1. Caractères des cibles 457 . Les effets de levier du LBO ont un coût qui devra être supporté par la cible rachetée. Il est évident que le pouvoir conféré aux sommes investies par le repreneur, sans commune mesure avec la valeur de la cible, suppose la mobilisation d'autres fonds. De plus, les apporteurs de ces fonds (propres ou d'emprunt) attendent très logiquement une rémunération pour leur participation à l'opération de rachat. Or, le holding de rachat n'a le plus souvent aucune activité et se trouve structurellement endetté. Aussi, pour supporter son endettement, il doit utiliser la société cible, seule à même de lui procurer les revenus nécessaires. De fait, toutes les entreprises sociétaires ne sont pas susceptibles d'être rachetées par voie de LBO. 458. Plus exactement, le risque de l'opération va varier en fonction des caractéristiques économiques et financières de la cible et principalement de sa capacité à distribuer régulièrement et sur un moyen terme des dividendes suffisants au remboursement des emprunts du holding. 459. Selon l'Association française des investisseurs en capital335, les sociétés cibles susceptibles de faire l'objet d'un LBO doivent présenter les caractéristiques suivantes : 335 GRANGE J.-L., MATUCHANSKY R., MERAUD H. et GICQUEAU T., LBO - Guide pratique, 2003, AFIC, p. 14 ; V. égal. DELFOSSE A., Holdings et reprise d'entreprise : LBO, LMBO, rachat par les cadres, 1988, Les éditions d'organisation, p . 104 . 149 - être financièrement saines ; ce qui signifie qu'elles doivent dégager une rentabilité significative et récurrente avec un réel potentiel de croissance ; - avoir des atouts et des avantages concurrentiels qui se traduisent souvent par des positions de leader ou de quasi-leader sur un marché ou sur un segment de marché ; - Il doit exister une « barrière à l'entrée » contre l'arrivée rapide de nouveaux concurrents ou contre des changements d'organisation du marché tant du côté du fournisseur que de celui des clients ; - disposer d'un outil de production adapté de façon à ce que la société après l'entrée de nouveaux actionnaires, ne soit pas obligée d'investir massivement ; ce qui aurait pour conséquence d'amoindrir l'effet de levier ; - présenter un modèle de croissance opérationnel dont le financement permette cependant de dégager des cash-flows excédentaires et suffisants pour assurer le remboursement de la « dette LBO » ; - disposer d'un savoir-faire transmissible ; - enfin, il est souhaitable que l'entrepreneur vendeur n'entretienne qu'un faible intuitu personae avec les clients de l'entreprise qui ne doit pas être dépendante de l'un d'eux, de façon à éviter que son départ de la s ociété n'entraîne une diminution du chiffre d'affaires de l'entreprise, ou que le départ d'un client ne remette en cause l'équilibre financier de l'opération. 460. Sont donc a priori exclues, toutes les entreprises en difficulté et particulièrement celles faisant l'objet d'une procédure collective. On peut cependant remarquer que le régime légal entourant ces procédures peut rendre opportune la prise de contrôle d'une société faisant l'objet d'un plan de continuation, si le repreneur estime que le rétablissement de la société cible interviendra rapidement et que le poids réaménagé de la dette n'est pas trop important. 461. Dans cette situation cependant, les emprunts contractés par la cible devront généralement être structurés pour éviter que les premières échéances de remboursement soient antérieures à la production par la cible, des revenus nécessaires à leur règlement. On peut 150 également imaginer monter un LBO pour acquérir une entreprise en difficulté dans le cadre d'un plan de cession ou de cession d'unité de production, lorsque l'entreprise présente une réelle potentialité de développement. Cela semble d'ailleurs se développer assez largement outre-Atlantique336. 2 - Intérêt social de la cible et LBO 462. Le LBO est souvent présenté comme étant totalement antinomique avec l'intérêt de la cible, ce qui en ferait une opération très risquée. Objectivement cela est parfaitement exact. Comme le remarque un auteur, on peut relever « un conflit entre d'une part, la finalité, les objectifs et la logique de construction du droit de l'entreprise et d'autre part la finalité, les objectifs et les effets des montages juridico-financiers de reprise. Dans le premier cas, l'accent est mis sur la protection de l'entreprise sociale et les intérêts qu'elle supporte ; dans le second, il s'agit de se servir de la substance même de cette entreprise pour permettre à une personne ou à plusieurs personnes, le ou les repreneurs, d'en prendre le contrôle ; c'est l'utilisation de la substance de l'entreprise par une ou plusieurs personnes dans leur intérêt personnel et exclusif »337. On peut en effet douter a priori de l'intérêt de la cible de financer son propre rachat, que l'on analyse l'intérêt social comme l'intérêt commun des actionnaires cherchant à maximiser leur profit338 ; ou comme l'intérêt de la société qui, à terme, recherche également la maximisation du profit au bénéfice des associés. 463. Cette analyse doit cependant être dépassée. Le LBO est seulement une technique d'acquisition d'entreprises. Sa mise en oeuvre suppose donc que l'entreprise soit en vente. De fait, cette technique permet d'assurer la pérennité de l'entreprise rachetée, du moins lorsque les conditions de l'opération ne sont pas léonines. Dans cette perspective, elle offre aux entrepreneurs qui n'ont pas les fonds nécessaires au rachat direct de l'entreprise, les moyens d'une telle acquisition. En outre, le fait qu'ils (les entrepreneurs) risquent une partie substantielle de leur patrimoine dans le LBO, les pousse à être particulièrement diligents dans 336 PARISET A., Acquisition d'une société américaine en redressement judiciaire, Rev. Lamy dr. affaires, oct. 2003, p. 3. 337 PAILLUSSEAU J. et DUSSART M., Sécurité des montages de reprise au plan juridique, Bull. Joly 1990.849. 338 e V. spéc. SCHMIDT D., Les conflits d'intérêts dans la société anonyme, 2 éd., 2004, Joly, p. 1 et s. 151 la gestion de l'entreprise rachetée ; ce qui finalement, conduirait, dans la plupart des hypothèses, à une création de valeur339. 464 . On l'aura compris, bien que le LBO se présente comme une opération d'acquisition d'entreprise reposant sur le financement par la cible d'une partie de son acquisition, celle-ci peut être conforme à son intérêt, tout au moins lorsque la gestion sociale apparaît cohérente et que le versement de dividendes n'est pas exagéré. En revanche, si l'opération apparaît déséquilibrée, notamment par le poids financier supporté par la cible, le LBO risque d'être jugé contraire à son intérêt, et de nombreux actes ponctuels qui le composent pourront être remis en cause et entraîner la responsabilité de leurs auteurs. C'est la raison pour laquelle cette opération est entravée. II opération entravée . La réalisation de la fusion rapide peut être entravée par la présence de certains obstacles de plusieurs ordres. Mais nous limiterons notre propos à ceux qui sont prévus par la loi et attestés par une partie de la doctrine. A- Les obstacles découlant de la loi 466. Ces obstacles juridiques sont contenus dans les dispositions de l'article L.225- 216 du code de commerce qui précisent que : « Une société ne peut avancer des fonds, accorder des prêts ou consentir une sûreté en vue de la souscription ou l'achat de ses propres actions par un tiers. Les dispositions du présent article ne s'appliquent ni aux opérations courantes des entreprises de crédit, ni aux opérations effectuées en vue de l'acquisition par les salariés d'actions de la société d'une des ses filiales ou d'une sociétés comprise dans le champs d'un plan d'épargne de groupe prévu par l'article L. 444-3 du code du travail»340. 339 Du moins dans les MBO pratiqués aux États-Unis et en Grande-Bretagne, WRIGHT V. M. et ROBBIE K., Le repreneur est un entrepreneur, www.lesechos.fr ; l'analyse des LBO français est plus nuancée, même si la faible création de valeur, voire la dégradation des résultats de la cible, n'apparaissent pas liées à la structuration de l'opération, DESBRIÈRES V. P. et SCHATT A., L'incidence des LBO sur la politique d'investissement et la o gestion opérationnelle des firmes acquises : le cas français, Finance Contrôle Stratégie, vol. 5, n 4, déc. 2002. 340 En droit OHADA, cette disposition est traitée par l'article 639 de l'A.U.relatif au Droit des sociétés commerciales et du GIE. 152 467. Grâce à la fusion rapide, le repreneur est soulagé d'un point de vue financier. Le remboursement des emprunts ne se fait plus grâce à la remontée des dividendes, mais grâce à la trésorerie de la cible. Ce serait donc la société cible qui a posteriori financerait son propre rachat. Or, l'article L.225-216 alinéa 1 du Code de commerce dispose que : « une société ne peut avancer des fonds, accorder des prêts ou consentir une sûreté en vue de la souscription ou l'achat de ses propres actions par un tiers ». En d'autres termes, une société ne peut participer au financement de son propre rachat. Toutefois, aux termes du deuxième alinéa de cet article, ces dispositions « ne s'appliquent pas aux opérations effectuées en vue de l'acquisition par les salariés d'actions de la société ou de l'une de ses filiales. » Faut-il considérer que le montage de fusion rapide entre dans le champ d'application de l'interdiction posée à l'alinéa premier ou qu'il relève de la dérogation du deuxième alinéa? Les dispositions de ce dernier alinéa doivent être écartées dans la mesure où on voit mal comment la holding pourrait avoir la qualité de salarié de la cible. En effet, comme nous l'avons précisé, la holding d'acquisition est une holding pure : elle n'exerce aucune activité autre que la gestion de ses titres. Dès lors, comment pourrait-elle être salariée de cette dernière? Si l'application de l'alinéa second semble pouvoir être écartée, tel n'est pas le cas du premier alinéa. Le sens qu'il convient de conférer à cette disposition donne lieu à de nombreuses controverses doctrinales. B- Des obstacles attestés par la doctrine 468. Comment interpréter l'article L. 225-216 du Code de commerce? Telle est la question à laquelle nombre d'auteurs et de praticiens tentent d'apporter une réponse. Plus précisément, le problème est de savoir si le fait pour l'entité fusionnée d'utiliser la trésorerie de la cible afin de rembourser les emprunts ayant permis son acquisition, constitue une avance ou un prêt au sens de cet article. Ainsi, la doctrine opte pour une double interprétation de ces dispositions de l'article L.225-216. Une interprétation restrictive et une interprétation large. 1- L'interprétation extensive 469. Pour certains auteurs341, prônant une interprétation large de cette disposition, il ne faut pas s'attacher aux termes employés dans cet article : peu importe la qualification de 341 BERTREL JP acquisition de contrôle et vampirisme financier, Dr. Et Patr., janvier 1993, p.56. 153 l'opération, l'essence de l'article L. 225-216 du Code de commerce ne serait pas simplement de condamner les avances ou les prêts stricto sensu mais toute opération financière par laquelle une société faciliterait l'acquisition de ses actions par un tiers. 470. Ainsi, cet article ne devrait pas être interprété dans le sens où sont prohibés uniquement les avances ou les prêts consentis directement au profit du tiers acquéreur. Le plus important est qu'économiquement, le résultat soit le même que si un prêt ou une avance était octroyé ; du fait de la fusion, la cible supporte la charge du financement de ses propres actions. Peu importe également le moment auquel les sommes sont avancées. Certes, l'article L. 225-216 du Code de commerce dispose que les prêts et avances prohibés sont ceux qu'une société consent « en vue » de l'achat de ses propres actions par un tiers. 471. Si on procède à une interprétation stricte de cet article, il faudrait que les sommes aient été mises à disposition avant que l'acquisition des actions ait eu lieu, pour que l'opération relève du champ d'application de cette disposition. Or, dans le cadre d'une fusion, il est indéniable que les sommes ne sont mises à disposition de l'entité fusionnée qu'après l'achat des titres de la cible. 472. D'autres auteurs342 avancent l'argumentation suivante. Les opérations de financement élaborées afin de permettre une prise de contrôle de société ne sont pas des opérations qui se déroulent de manière spontanée mais de manière réfléchie. Par conséquent, avant de procéder à la fusion rapide, le montage se décompose en plusieurs opérations. Chaque étape du montage a été soigneusement planifiée par avance : l'endettement de la holding dans un premier temps, l'acquisition des titres de la cible dans un second temps, puis la fusion de ces deux entités dans un dernier temps afin de rembourser les emprunts contractés lors de la première étape. 473. De la sorte, tout serait donc fait « en vue » de faciliter « l'achat de ses propres actions par un tiers »343. En conséquence, selon ces auteurs, ces opérations relèvent bien du champ d'application de l'article L. 225-216 du Code de commerce. 474. En faveur d'une interprétation extensive de l'article L. 225-216 du Code de commerce, il est également fait valoir que cette disposition doit être interprétée à la lumière 342 PAILLUSSEAU J., Sécurité des montages de reprise au plan juridique, Bull. Joly, &260, p.849. 343 Ibid. 154 de la deuxième directive344, dont elle est la transposition. Celle-ci a pour finalité la protection de l'intégrité du capital des sociétés par action. En effet, le Conseil des Communautés européennes a jugé nécessaire « d'arrêter des prescriptions communautaires afin de préserver le capital, gage des créanciers, notamment () en limitant la possibilité pour une société d'acquérir ses propres actions »345. Il s'agit donc de protéger le capital social de la société cible. Or, cette protection ne saurait être efficace si elle se résume à la prohibition des seules avances, prêts et sûretés consentis par cette dernière avant que ses actions n'aient été acquises. 475. De même, ces auteurs estiment que l'article L. 225-216 du Code de commerce s'applique également lorsque des garanties sont consenties après la fusion sur les actifs de l'entité fusionnée. Selon eux, en cas de fusion rapide immédiatement suivie de l'octroi de garanties au profit des prêteurs qui ont rendu possible la mise en place du LBO, le montage n'aurait d'autre but que de contourner la prohibition de l'article précité. Il y aurait alors fraude à la loi. 476. En effet, la fraude à la loi est caractérisée dès lors qu'un sujet de droit a l'intention d'échapper à l'application d'une règle impérative en ayant recours à un montage que les auteurs qualifient d'artificiel. Il faut alors apporter la preuve que la fusion n'a été mise en place que pour éviter le jeu des dispositions impératives du Code de commerce. Il en irait de même lorsque la constitution d'une sûreté postérieurement à la fusion est une condition de l'obtention du prêt nécessaire à la réalisation du LBO. Supposons que les créanciers de la holding d'acquisition acceptent de consentir un prêt à cette dernière, mais à la condition que dans un laps de temps proche de la mise en place du LBO, il soit procédé à une fusion, et qu'une fois celle-ci réalisée, l'entité fusionnée leur consente une garantie sur les actifs de la cible transférés à la holding. 477. Il semblerait que le but d'un tel montage soit effectivement de contourner l'application de l'article L. 225-216 du Code de commerce. Ainsi, dans une telle hypothèse, le patrimoine de la cible serait effectivement engagé « en vue » de l'achat de ses propres actions. 2- L'interprétation restrictive 478. Si la position des auteurs ci-dessus référencés obtient notre adhésion concernant la constitution des sûretés, elle n'est pas partagée pour ce qui concerne les avances 344 Deuxième directive n° 77/91/CEE du conseil du 13 décembre 1976. 345 Idem. 155 de fonds et l'octroi des prêts. À l'instar de ce qui est allégué par une partie de la doctrine346, une interprétation restrictive des termes de l'article L. 225-216 du Code de commerce semble plus conforme à la lettre du texte. Dans l'hypothèse d'une fusion rapide, comment considérer comme une avance ou un prêt le fait pour l'entité fusionnée d'utiliser la trésorerie, qui initialement était celle de la cible, afin de rembourser les emprunts contractés dans le cadre du LBO? Pour établir cette démonstration, il est impératif de partir de la définition du contrat de prêt. Aux termes de l'article 1892 du Code civil, il s'agit du « contrat par lequel l'une des parties livre à l'autre une certaine quantité de choses qui se consomment par l'usage, à charge pour cette dernière de lui en rendre autant de même espèce et qualité ». Le prêt suppose donc une restitution de la part de l'emprunteur. Or, une telle restitution fait défaut dans une hypothèse de fusion rapide. 480. Certes, la trésorerie de la cible va permettre de rembourser les emprunts contractés par la holding pour son acquisition mais, l'opération ne va pas se matérialiser par une mise à disposition des fonds au profit de la holding à charge pour cette dernière de rendre cette somme d'argent à la cible. L'entité fusionnée va se contenter de prélever des sommes sur sa propre trésorerie. Par conséquent, elle n'a rien à restituer à qui que ce soit. Cela résulte de la transmission universelle de patrimoine qui s'opère du fait de la fusion : la trésorerie utilisée n'est plus celle de la cible, mais celle de la société absorbante. 481. Grâce à la transmission universelle de patrimoine, les biens de la cible sont désormais la propriété de l'entité fusionnée. Dès lors, celle-ci ne fait rien d'autre que se prévaloir du droit que lui confère l'article 544 du Code civil347. La trésorerie dont il s'agit étant sa propriété, elle bénéficie à son égard de l'abusus, c'est-à-dire de sa disposition matérielle et juridique. À cet effet, elle a donc le droit d'aliéner le bien dont elle a la propriété. Il n'y a donc ni avances de fonds, ni prêts ; la transmission universelle de patrimoine ne saurait être assimilée à ces opérations. 346 VIANDER A., l'article 217-9 de la loi du 24 juillet 1966 e t les rachats d'entreprise, JCP G 1990, I, n°3476 ; LENABASQUE H., A propos de l'article 217-9 de la loi du 24 juillet 1966, JCP E 1990, I, n° 107, p.17. 347 C.Civ. art.544 dispose que : « la propriété est le droit de jouir et disposer des choses de la manière la plus absolue, pourvue qu'on n'en fasse pas un usage prohibé par les lois ou par les règlements » 156 482. D'autre part, les auteurs font également valoir que la prohibition de l'article L. 225-216 du Code de commerce ne recouvre pas les hypothèses de fusion rapide dans la mesure où cet article instaure une chronologie qui diffère de celle-ci. En effet, le législateur établit que les avances de fonds et les prêts doivent être accordés « en vue » de l'acquisition des actions. 483. Or, l'entité fusionnée utilise la trésorerie mise à sa disposition après que les titres aient été acquis. La fusion étant postérieure à l'achat des actions, il n'est procédé au remboursement des emprunts ayant permis l'acquisition de la cible qu'une fois ses titres acquis. Dès lors, comment considérer que l'opération contestée est réalisée en vue de l'achat des actions? Enfin, on pourrait ajouter que la référence à un tiers s'oppose également à l'application de l'article L. 225-216 du Code de commerce. Il est vrai qu'après la fusion, la holding qui a acquis les actions de la cible n'est plus un tiers ; holding et cible étant désormais réunies pour ne former qu'une seule et même société. 484. Au vu de ces quelques arguments, il semblerait que l'article L. 225-216 du Code de commerce ne puisse s'appliquer pour sanctionner le résultat obtenu grâce à une fusion rapide. Dès lors, comme l'a précisé un éminent auteur, il convient en la matière d'éviter toute « cascade d'assimilation pour faire entrer dans le champ des interdictions des opérations qui n'entraient probablement pas dans les prévisions du législateur »348. En effet, si le législateur a expressément visé les avances, les prêts et les sûretés, c'est peut-être parce qu'il n'entendait pas prohiber d'autres opérations. 485. À défaut, il aurait employé des termes plus larges. Par exemple, il aurait pu interdire toute opération par laquelle une société utilise sa trésorerie « en vue de la souscription ou de l'achat de ses propres actions par un tiers ». De même, si le législateur entendait prohiber ces opération s avant comme après l'achat des actions, il n'aurait pas pris la peine de préciser « en vue de la souscription ou de l'achat des actions ». 486. Ainsi, il appartiendra au juge de trancher cette controverse doctrinale. À l'heure actuelle, celui-ci a certes eu à se prononcer quant au sens à donner à l'article L. 225216 du Code de commerce, mais il n'a encore jamais eu à apprécier la compatibilité de la fusion rapide avec cet article. Dans l'hypothèse où il estimerait que ces opérations constituent 348 VIANDER A, op.cit. 157 une violation de cette disposition, un certain nombre de sanctions viendront condamner ces agissements. 487. Comme il vient d'être démontré, l'opération de restructuration peut être utilisée à d'autres escients notamment ceux de rembourser par son mécanisme caractéristique une dette nécessaire à la prise de contrôle d'une entreprise. Cette conception alternative que la doctrine regroupe sous le vocable fusion rapide s'entend de la fusion qui intervient dans un délai assez bref entre la société cible et la société holding, afin que les intérêts de l'emprunt souscrit par le holding pour l'acquisition de la société cible, puisse être payé grâce à la trésorerie de cette dernière. Cette question suscite des controverses : est-il possible de fusionner la société holding et la société cible tant que les emprunts contractés par la holding pour la prise de contrôle de la cible n'ont pas été remboursés? 488. Dans ce cas, il se produit une confusion des patrimoines des deux sociétés et par conséquent, une utilisation des actifs de la cible, notamment sa trésorerie. Cette confusion des patrimoines profitant indirectement aux détenteurs des titres de la holding, n'y a t'il pas violation des dispositions de l'article L.225-216 qui, comme il vient d'être démontré prohibent les avances ou les prêts consentis par une société à un tiers en vue de l'achat de ses propres actions, voire un abus de bien sociaux si les acquéreurs sont administrateurs de la société cible? la fusion est une opération courante qui fait l'objet de règles précises destinées à sauvegarder les intérêts des associés et des créanciers sociaux. Elle n'est donc pas en soi critiquable même si elle a pour objet de rapprocher deux sociétés dont l'une vient de prendre le contrôle de l'autre. Et, cette position favorable semble être celle de la jurisprudence. En effet, l'interdiction prévue par l'article L.225-216 du code de commerce a fait l'objet d'une interprétation favorable aux opérations de reprise. La Cour de cassation a estimé dans un arrêt de principe que ne tombe pas sous le coup de cet article, l'opération par laquelle une banque consent un prêt à un tiers pour l'achat des actions d'une société alors que ce prêt était garanti par le nantissement des titres et l'affectation au profit de la banque des distributions de bénéfices futurs effectuées par la société rachetée. Autrement dit, l'application stricte des termes de l'article L. 225-216 précité n'interdit ni la constitution par la société holding d'un nantissement portant sur les actions de la société cible, ni la ée des dividendes de la cible à la holding en vue de rembourser le prêt349. Il en résulte que quelque soit le sens de la fusion (holding absorbant la cible ou l'inverse), la réunion des deux sociétés revient à financer 349 GUYON Y. note sous Cass. com., 15 nov. 1994 : JCP E 1995, II, 673. le rachat de la cible avec ses propres actifs. Et, la violation de ce texte en raison des lourdes sanctions encourues pose avec acuité le problème de son applicabilité au cas d'une fusion rapide. S'il est prouvé que la fusion anticipée n'a été réalisée que pour détourner l'interdiction de l'article L. 225-216 précité et partant qu'elle ne présente aucun intérêt économique pour les sociétés fusionnées, elle peut être annulée et des condamnations pénales peuvent être prononcées contre les dirigeants qui l'ont organisée. Mais, le recours à l'article L. 225-216, d'interprétation restrictive en raison des sanctions pénales dont il est assorti, est discutable ici dans la mesure où une fusion n'est ni une avance ni un prêt. La question de l'application de l'article L. 225-216 à une fusion rapide demeure donc entière en l'absence de jurisprudence de référence sur ce point. 489. Cette interdiction est traitée également par le droit OHADA dans l'article 639 de l'acte uniforme relatif aux sociétés commerciales et du GIE qui dispose que : « La souscription ou l'achat par la société de ses propres actions, soit directement, soit par une personne agissant en son nom propre mais pour le compte de la société est interdite. De même, la société ne peut avancer des fonds, accorder des prêts ou consentir une sûreté en vue de la souscription ou l'achat de ses propres actions par un tiers. Toutefois, l'assemblée générale extraordinaire qui a décidé une réduction de capital non motivée par des pertes peut autoriser le conseil d'administration ou l'administrateur général, selon le cas, à acquérir un nombre déterminé d'actions pour les annuler. Les fondateurs ou, dans le cas d'une augmentation de capital, les membres du conseil d'administration ou l'administrateur général sont tenus dans les conditions prévues aux articles 738 et 740 du présent Acte uniforme, de libérer les actions souscrites ou acquises par la société en violation des dispositions de l'alinéa premier du présent article. De même, lorsque les actions sont souscrites ou acquises par une personne agissant en son nom propre mais pour le compte de la société, cette personne est tenue de libérer les actions solidairement avec les fondateurs ou, selon le cas, les membres du conseil d'administration ou l'administrateur général. Le souscripteur est en outre réputé avoir souscrit les actions pour son propre compte. » TITRE I 490. Dans le cadre de leur stratégie de croissance, les entreprises peuvent être amenées à se regrouper par des fusions qui leur permettent de renforcer leur capacité concurrentielle. Cette logique a été consacrée en droit français et OHADA sur la base du mécanisme de la transmission universelle du patrimoine. Cependant, ce mécanisme en dépit de son originalité contient des imperfections qui en notre sens pourraient entraver l'efficience des restructurations d'entreprises. Aussi, cette conception primitive pour notre part apparaît désuète ce d'autant plus qu'il existe de plus en plus de nouvelles donnes, de nouveaux impératifs qui voient se développés des nouveaux mécanismes de restructurations dans lesquels la transmission universelle joue un rôle dérivé. La doctrine utilise la notion « fusion rapide » ou de « montage de type LBO »qui permettent d'affirmer que la finalité première de l'opération de restructuration par voie de fusion n'est pas tant la transmission universelle du patrimoine mais l'utilisation de celle-ci à des fins de parachèvement du montage financier. Ces procédés qui répondent plus à des impératifs financiers et soumis aux techniques de l'ingénierie financière démontrent qu'en plus de la conception patrimoniale légale, de la conception contractuelle doctrinale partiellement consacrée légalement, l'on assiste à une autre conception doctrinale : la financiarisation de l'opération de restructuration par fusion qui prend des proportions de plus en plus importantes. Elle apparait comme une technique de financement de l'acquisition et de la transmission des entreprises et posent des problématiques importantes notamment en matière fiscale qu'il convient de régler car le législateur n'a prévu aucune disposition propre en la matière. En définitive, si ces opérations de restructuration sont possibles au plan interne, il convient de préciser qu'elles peuvent dépasser le cadre national, législateur leur ayant consacré un régime légal qui en dépit de son caractère innovant contient des entraves qu'il convient de développer. 160 TITRE II LA CROISSANCE AU PLAN TRANSFRONTALIER : UNE REALITE LIMITEE 491. Après avoir constaté que les sociétés de capitaux éprouvent de nombreuses difficultés à réaliser des restructurations transfrontalières entre elles, il est apparu nécessaire aux législateurs français et africain, de prévoir des dispositions en vue d'en faciliter la réalisation. 492. L'objectif a été de simplifier le droit applicable afin de permettre aux entreprises d'y recourir facilement et d'assurer une certaine protection tant pour les associés, les tiers350 que les salariés351car l'absence d'un régime harmonisé avait jusqu'ici limité les capacités de mobilité des entreprises au delà de leurs frontières et rendaient les restructurations transfrontalières juridiquement complexes et économiquement coûteuses. 493. Ces sujets de complexité touchaient notamment à la rédaction de plusieurs documents juridiques dans des langues différentes, des dates d'effets juridiques différents, des problèmes de cumul, voire de superposition, des délais de protection des créanciers ; certains avant l'assemblée générale comme en France, d'autres après l'assemblée comme au Luxembourg, en Espagne ou en Italie ; une intervention de notaires, dans certains Etats seulement (comme par exemple Luxembourg, Espagne, Italie, Allemagne) 494. Toutes ces lourdeurs sont désormais levées dans l'optique de faciliter les restructurations transfrontalières d'entreprises. Toutefois, persistent des zones d'ombres qui pourraient entamer leur efficacité. Elles sont liées non seulement au régime de protection des salariés (CHAPITRE II) mais aussi aux règles applicables à ces opérations transfrontalières. (CHAPITRE I) 350 LE CANNU P., DONDERO B., droit des sociétés, 3ème édition Montchrestien n°1598, p.1020. 351 CONVERT L, r tions et rapprochement des sociétés anonymes, troisième et sixième directive sur les fusions, sixième directive sur les scissions et proposition de dixième directive sur les fusions transfrontalières. Fasc. 161p ; 1 et s. 161 CHAPITRE I LES LIMITES DECOULANT DU REGIME JURIDIQUE DE LA CROISSANCE TRANSFRONTALIERE 495.
55,888
03/tel.archives-ouvertes.fr-tel-00623972-document.txt_3
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,213
12,162
Chapitre 3 : Le côté obscur de la matière Figure où ρ (r) 3.1 Courbe de rotation de la galaxie NGC 6503 [26]. est le prol de masse. Dans le cas newtonien, le prol devrait décroître en √ 1/ r au delà du disque lumineux (de l'ordre de 20 Mpc). La constance des vitesses de rotation observées pour les grandes distances √ ∝ r, soit ρ (r) ∝ 1/ r2. Sa masse totale serait de l'ordre de 1012 (gure 3.1) impliquent la présence en quantité importante d'une masse invisible, formant un halo massif tel que M(r) Modot pour une galaxie spirale comme la notre. Des modèles considérant une modication de la loi de gravitation permettent de rendre compte des observations aux échelles galactiques. Ces théories proposent en général une extension des équations d'Einstein qui induit un changement dans la loi de Newton pour des régimes d'accélération particuliers [27]. Ces théories MOND (pour MOdied Newtonian Dynamics) prédisent un univers entièrement baryonique sans nécessité d'introduire de nouvelles particules hypothétiques. 3.3.2 Les amas de galaxies Historiquement, l'idée de la matière invisible a été proposée en 1933 par l'astronome Fritz Zwicky [241] qui étudiait l'amas de Coma. En étudiant la distribution de vitesse de sept galaxies de l'amas, il a calculé la masse dynamique de l'amas et conclu qu'il était environ quatre cents fois plus grande que la masse lumineuse. Le calcul a été eectué en considérant la quantité de gaz chauds et d'étoiles. Sa conclusion est que la ma jorité de la masse de l'amas de la galaxie de Coma n'émet pas de lumière. C'est pourquoi il l'appelle la matière noire. Même si aujourd'hui les méthodes de mesure de la masse des amas ont changé, les résultats de Zwicky sont toujours valables. On utilise actuellement les eets de lentilles gravitationnelles : les rayons lumineux sont déviés à l'approche d'ob jets massifs ; cela se traduit par une déformation de l'image d'un objet lointain quand un corps massif s'interpose entre cet objet et l'observateur sur Terre. Cette Section 3.3 : Evidences et distributions Figure 3.2 41 Image en fausses couleurs du Bullet Cluster où la matière associée aux amas de galaxies est en bleu et l'émission des gaz chauds émettant des rayons X est en rouge. technique a d 'ailleurs permis de faire une cartographie en trois dimensions de la distribution de matière en 2007 [162]. L'étude des amas de galaxies permettent de donner une estimation de la densité de baryons. En eet, la plupart de ceux qui peuplent les amas sont chauds et rayonnent. La masse de gaz peut être estimée par des mesures du rayonnement X ou par l'eet que les baryons chauds ont sur le CMB (eet Sunyaev- Zel'dovich). Les autres bar s (froids) contribuent à hauteur d'environ 6 %. Ωb est alors obtenu en faisant le rapport de cette masse par la masse totale de l'amas. Cette dernière est estimée par la dispersion des vitesses des galaxies, le rayonnement X et l'eet de lentilles gravitationnelles [8] (voir la gure 1.2). Toutes les analyses de ce type conduisent à Ωm ∼ 0.2 - 0.3 [19]. Un autre indice fort pour l'existence de la matière noire à l'échelle des amas est le célèbre Bullet cluster [52]. Cet objet se compose de deux amas de galaxies qui sont entrés en collision il y a 150 millions d'années. D'une part, il est possible de tracer la distribution de gaz de l'objet grâce aux rayons X et d'autre part, les eets de lentilles gravitationnelles observent la quantité totale de la matière. Comme on peut voir sur la gure 3.2 les deux composantes sont clairement séparées. En eet, les deux distributions de gaz des deux groupes sont eectivement entrées en collision alors que les halos de matière noire se sont traversés sans collision. C'est le premier exemple où la matière baryonique est clairement décorrélée du potentiel gravitationnel, ce qui prouve que 3.3.3 Les supernovae de type Ia Le modication du spectre électromagnétique qu'une source subit entre le moment de son émission et celui de sa détection dans un univers en expansion induit un décalage vers les longueurs d'ondes plus élevées (d'énergie inférieure), appelé décalage vers le rouge (redshift en anglais). Il est possible d'établir une relation entre la luminosité d'un objet et son décalage vers le rouge, dépendant du modèle cosmologique considéré, notamment de Ωm et ΩΛ. Pour des objets dont on connaît le redshift et la luminosité absolue, les paramètres du modèle peuvent être déterminés expérimentalement. Les supernovae de type Ia (SNIa) sont des explosions résultant de la n de vie d'étoiles particulières dont la luminosité intrinsèque en fait des chandelles standard de la cosmologie. On peut ainsi sonder l'évolution du facteur d'échelle sur de très grandes distances. Il apparaît que l'univers est dans une phase d'expansion accélérée, et donc que la valeur de ΩLambda est non nulle [51] : ΩLambda = 0.71+0.05 −0.06 (3.15) 3.3.4 La nucléosynthèse primordiale La nucléosynthèse permet de fournir une mesure indépendante de la densité de baryons présents dans l'univers en se basant sur les quantités des éléments légers (les isotopes de l'hydrogène, l'hélium, le béryllium et le lithium). Comme on peut le voir sur la gure 3.3, les abondances prédites par la cosmologie sont en très bon accord avec les observations. Ces observations sont eectuées en étudiant le spectre d'absorption dans des nuages de gaz neutres de la lumière émise par des quasars éloignés, supposés être primordiaux. La contrainte la plus précise vient du rapport D/H. Les modèles de nucléosynthèse primordiale sont très précis et se basent sur des processus nucléaires bien connus, leurs implications sont donc très robustes. Si une nouvelle particule venait troubler la nucléosynthèse primordiale, il faudrait expliquer précisément comment sa présence n'aecterait pas les prédictions. Cela est vrai en particulier dans certains modèles de matière noire qui prédisent l'existence de particules meta-stables qui pourraient se désintégrer pendant cette période et apporter une contribution hadronique supplémentaire. Ainsi une éventuelle interférence avec la nucléosynthèse peut parfois être considérée comme une défaillance du modèle de matière noire en question. 3.3.5 La formation des structures Les uctuations dans la densité baryonique ne peuvent commencer à croître qu'après la recombinaison en raison du couplage fort entre les baryons et les photons qui règne auparavant. Dans le fond dius cosmologique, ces perturbations mesurées sont de l'ordre de δ ∼ −5 10. Nous observons actuellement un univers très inhomogène, composé de galaxies regroupées en amas, d'étoiles, de planètes ; tout ceci indique que la valeur de δ ∼ 1 a été atteinte et pour cela, les uctuations mesurées dans le fond dius cosmologique devraient être de δ ∼ −2 10 environ. En postulant l'existance d'un type de matière non relativiste présente au moment Baryon density Ωb h2 0.005 0.26 0.01 0.02 0.03 4He 0.25 0.24 Y D 0.23 ___ H 0.22 10 −3 3He ___ H CMB D/H p 10 − 4 3He/H 10 − 5 p 10 − 9 5 7Li/H p 2 10 − 10 1 2 3 4 5 Baryon-to-photon ratio η10 6 7 8 9 10 Figure 3.3 η (échelle du haut). Les mesures d'abondance sont représentées par les rectangles, et ou Ωb Prédictions des abondances des noyaux dans l'univers en fonction du paramètre η par WMAP apparaît verticalement en violet [33]. de l'égalité rayonnement-matière, ces uctuations auraient pu commencer à croître avant la recombinaison. Ce type de matière doit également ne pas se coupler aux baryons , pour pou voir uctuer indépendamment . En résumé, l'univers tel que le CMB nous le montre est trop homogène pour entraîner la formation des galaxies, il faut donc ajouter un ingrédient dont les uctuations sont plus importantes sans que cela ne se voit dans le CMB. Il faut donc que cette matière froide soit non-bary , c'est-à-dire qui ne se couple pas avec les photons. 3.3.6 Le fond dius cosmologique : CMB L'existence du fond dius cosmologique (CMB) a été prédite dès 1948 par Gamow et sa découverte par Penzias et Wilson remonte à 1965. Après plusieurs années d'eorts expérimentaux, les mesures du CMB ont révélé une isotropie de ce rayonnement jusqu'à un niveau de −5 10 et un spectre de corps noir parfait qui lui est associé correspondant à une température de 2.725K. Ce sont les vibrations de l'univers sur lui même qui impriment ces perturbations de température dans les photons du fond dius. En fait, des oscillations sont produites par la balance entre la gravitation qui tend à creuser les puits de potentiel et la pression de radiation du rayonnement qui tend à lisser la densité. Les propriétés de ces vibrations sont très sensibles Figure 3.4 Spectre de puissance angulaire du CMB [106]. au contenu de l'univers et il est possible d'ajuster les paramètres cosmologiques pour rendre compte des observations. An d'étudier les anisotropies du CMB, on développe la carte des anisotropies en température en harmoniques sphériques : +l +∞ ∑ ∑ δT alm Ylm (θ, φ) (θ, φ) = T l=2 m=−l où Ylm (θ, φ) cients alm : (3.16) sont les harmoniques sphériques. On calcule ensuite la variance Cl des coe- l ∑ 1 Cl ≡< |alm | >≡ |alm |2. 2l + 1 m=−l 2 (3.17) l est directement relié à une échelle angulaire dans le ciel, et la donnée de Cl en fonction de l donne l'information sur la variance de la température lorsque l'on compare un grand nombre de fois les températures de deux points éloignés d'un angle correspondant au multipôle considéré (l'angle diminue quand l augmente). Si les uctuations de température sont gaussiennes comme cela semble être le cas, toutes les informations contenues dans la carte du CMB peuvent être résumées dans le spectre de puissance fournissant le comportement de Cl en fonction de l. En pratique, c'est la quantité l(l+1)Cl /2 π en fonction de l qui est tracée. La gure 3.4 montre cette mesure par l'expérience WMAP [106]. 3.4 Le modèle ΛCDM La compilation de tous ces résultats conduit au modèle d'univers ΛCDM actuellement admis où dominent une constante cosmologique (ou énergie noire) et de la matière noire froide. La mise en commun des données issues des diérentes sondes conduit aux valeurs données dans 45 Section 3.4 : Le modèle ΛCDM Supernova CosmologyP roject 3 Knop et al. (2003) Spergel et al. (2003) Allen et al. (2002) No Big Bang 2 Supernovae 1 ΩΛ CMB 0 Clusters clo se t fla d en op -1 0 1 2 3 ΩM Figure 3.5 Ωm , ΩΛ ) Contraintes de diérentes sondes cosmologiques dans le plan ( [200]. le tableau 3.2. La gure 3.5 montre la com plément arité des mesures proven ant des diérentes sonde s : SNI a, amas de galaxies et CMB. ΛCDM Notation Valeurs 1.0050−0.0061 Densité d'énergie noire Ωtot Ωc Ωb ΩΛ Constant de Hubble H0 Age de l'univers t0 Densité totale Densité de matière Densité de baryons Table 3.2 +0.0060 ± 0.013 0.0456± 0.0015 0.726± 0.015 −1 −1 70.5± 1.3 km.s.Mpc 13.72± 0.12 Gyr 0.228 Valeurs des paramètres cosmologiques [107]. La matière noire est donc supposée être froide pour contribuer à la formation des structures. Cela signie qu'elle doit être massive pour pouvoir participer gravitationnellement dans les surdensités. On s'attend également à ce qu'elle soit non-baryonique puisqu'elle n'interagit pas avec la lumière. De plus, le candidat doit être stable (ou avoir un temps de vie susamment long) pour être détecté aujourd'hui. Nous verrons aussi qu'elle doit interagir faiblement pour répondre aux contraintes cosmologiques. Ce type de particules sera dénomé WIMP pour Weackly Interacting Massive Particles, en anglais, soit particule massive interagissant faiblement. Elle constitue 80 % de matière totale de l'univers. Chapitre 3 : Le côté obscur de la matière 3.4.1 L'histoire thermique de l'univers L'histoire de l'univers est basée sur des extrapolations de nos connaissances actuelles jusqu'à l'époque de Planck t T ∼ 16 10 ∼ 19 10 GeV ( 10 −43 s), parsemée de plusieurs grandes étapes : GeV : A cette échelle d'énergie, on suppose que le groupe G de grande unica- tion des interactions est brisé pour donner le groupe de jauge du Modèle Standard des particules SU(3)C T ∼ 2 10 ⊗ SU(2)L ⊗ U(1)Y. GeV : Le groupe SU(3)C ⊗ ⊗ SU(2)L U(1)Y du Modèle Standard se brise en ⊗ U(1)Q. Cette transition, appelée brisure de symétrie électrofaible, pourrait être SU(3)C à l'origine de la baryogénèse. ∼ 101 - 103 GeV : Le candidat de matière noire se découple. T ∼ 0.3 GeV : La transition de phase QCD intervient et les quarks et les gluons sont alors T connés dans les hadrons. ∼ 1 MeV : Le découplage des neutr ons intervient. T ∼ 100 keV : La nucléosynthèse primordiale ou BBN (Big Bang Nucleosynthesis) débute. T Les protons et les neutrons interagissent pour donner les éléments légers ; D, 3 He, 4 He, Li. T ∼ 1 eV : La densité de matière devient égale à la densité de radiation. Il y a alors transition entre le règne de rayonnement où l'expansion de l'univers suit la loi a(t) vers celui de la matière où a(t) T ∼ ∝ t 2/3 ∝ t1/2. 0.4 eV : Les photons se découplent et produisent le rayonnement du fond dius cosmologique. T ∼ −4 10 eV, T = 2.7 K : Aujourd'hui. 3.4.2 L'abondance cosmologique des WIMP L'évolution de la densité d'une espèce au cours du temps est régie par l'équation de Boltzmann qui établit l'égalité entre la variation totale de la densité et l'ensemble des interactions auxquelles l'espèce considérée est soumise. Cette équation peut s'écrire sous la forme : Les WIMP, que nous noterons génériquement χ, s'annihilent avec leurs anti-particules pour donner des paires particules-antiparticules, χχ → ψ ψ̄ (3.18) A mesure que l'univers s'étend, les WIMP ne trouvent plus de partenaires pour s'annihiler et subissent un gel chimique. La densité co-mobile de ces particules reste alors constante et elles peuplent l'univers comme des reliques de cette période jusqu'à nos jours. On peut décrire l'évolution de la population de WIMP avec l'équation de Boltzmann : dn 2 + 3Hn = −⟨σv⟩(n2χ − (neq χ ) ) dt (3.19) où : ⟨σv⟩ est la moyenne thermique de la section ecace totale d'annihilation pondérée par la vitesse des particules, est la constante de Hubble, eq nχ est la densité de WIMP à l'équilibre thermique. Lorsque la température est susament élevée, la densité de WIMP présente dans l'univers eq est sensiblement équivalente à celle des photons (nχ ∝ T3 ). Au fur et à mesure de son expansion, 47 Section 3.5 : Conclusion l'univers se refroidit et le terme 3Hn devient dominant. Le gel a lieu vers T ∼ mχ /20, voir gure 3.6 Il est possible d'exprimer approximativement la densité relique des particules de matière noire considérées en écrivant la condition de gel nχ Ωχ h2 ≈ Figure 3.6 ⟨σv⟩ = H, il vient alors : 3 × 10−27 cm3.s−1 ⟨σv⟩ (3.20) Evolutions possibles de la densité co-mobile de WIMP. La courbe en trait plein correspond à l'équilibre thermique, les courbes en tirets correspondent à des abondances reliques [135]. La densité relique est indépendante de la masse du WIMP à des corrections logarithmiques près et est inversement proportionnelle à sa section ecace d'annihilation. En introduisant une section ecace d'un ordre de grandeur typique des interactions faibles, il vient 26 10 3 −1 cm.s. On trouve alors Ωχ h2 ∼ ⟨σv⟩ ∼ 0.1, qui correspond à l'ordre de grandeur de la densité de matière noire dans l'univers, mesurée par WMAP. C'est là un résultat très important car il n'y a aucune raison a priori que l'échelle électrofaible soit reliée à la densité de fermeture de l'univers. Cette relation fait pourtant le lien entre les deux et suggère que si une particule stable est associée à de la nouvelle physique à l'échelle électrofaible, elle est la matière noire. ................................... 54 55 4.4.1 Spectre en énergie.................... 4.4.1.1 Continuum gamma du spectre d' annihilation 4.4.1.2 Raies de photons mono-énergétiques..... 4. 4.2 Modèles considérés.................... 4.4.2.1 LSP....................... 4.4.2.2 LKP................................................................. 57 57 58 58 58 60 4.3 Dimensions supplémentaires et particul es de Kaluza-Klein ..... 56 4.4 Emission γ .................................. 57 49...... Chapitre 4 : A l'ombre de la physique des particules L'existence de la matière noire est justiée par de nombreuses observations expérimentales et des prédictions théoriques provenant du modèle cosmologique. La nature propre de la matière noire reste quant à elle toujours indéterminée et constitue un sujet très actif de la physique moderne. De nombreux candidats sont proposés par des extensions du Modèle Standard de la physique des particules. Parmi ceux -ci, deux des plus discutés actuellement sont présentés : le neutralino χ, issu des théories supersymétriques, et la particule de Kaluza-Klein B (1), issue des théories avec des dimensions supplémentaires universelles. 4.1 Le Modèle Standard de le physique des particules 4.1.1 Description Le Modèle Standard (SM) de la physique des particules est une théorie eective à basse énergie décrivant précisémment les particules élémentaires et leurs interactions. Les constituants fondamentaux de la matière sont des fermions : des quarks et des leptons regroupés en trois familles. Leurs interactions sont transmises par des particules de spin entier appelées bosons de jauge. Les interactions fortes sont portées par huit gluons ga, l'interaction électromagnétique par le photon ( γ ) et l'interaction faible par les bosons massifs W± 0 et Z. L'interaction gravitationnelle n'intervenant pas à ces énergies, elle n'est pas prise en compte par la théorie. Le Modèle Standard est une théorie de jauge dont le groupe de symétrie est SU(3)C ⊗ SU(2)L ⊗ U(1)Y. Le groupe SU(3)C est celui de la chromodynamique quantique qui décrit les interactions fortes entres particules. Le groupe SU(2)L ⊗ U(1)Y est le groupe de symétrie des interactions électro-faibles, qui unient l'interaction électromagnétique et la force faible. An de fournir une masse aux fermions et aux bosons de la théorie électrofaible, une brisure spontanée de la symétrie SU(2)L ⊗ U(1)Y est nécessaire : c'est le mécanisme de Higgs. Celui-ci nécessite l'existence d'un champ de spin 0 auquel chacune des particules du Modèle Standard 0 est couplée : c'est le boson de Higgs H. De nombreuses expériences ont conrmé les prédictions de ce modèle, en particulier la découverte des bosons W ± et Z 0 ou celle du quark top. Seul le boson de Higgs n'a pas encore été découvert. Les contraintes sur sa masse sont actuellement supérieures à 114.1 GeV/c 2 par les mesures eect uées au LEP [2], le Tevatron a également exclu le région comprise entre 158 et 175 GeV (à 95 % de niveau de conance) [48]. 4.1.2 Les limitations En dépit de son succès, il semble aujourd'hui clair qu'une théorie plus fondamentale doit exister dont les limites à basse énergie coïncident avec le Modèle Standard. Le nombre de paramètres libres Le modèle standard comporte 26 paramètres libres (nombre de familles, masse des particules, ) dont les valeurs mesurées par les expériences sur accélérateurs ne sont pas expliquées. 51 Section 4.1 : Le Modèle Standard de le physique des particules Le problème de hiérarchie Un autre problème du Modèle Standard concerne la divergence quadratique dans les corrections radiatives à la masse des champs scalaires tel que le boson de Higgs. Des contributions à l'ordre d'une boucle interviennent dans la masse du Higgs, elles sont de l'ordre de : δm2H =∝ −λΛ2 où λ est la constante de couplage considérée et Λ (4.1) l'échelle en énergie de validité du Modèle Standard. La correction à une boucle de la masse du Higgs est de l'ordre de si l'échelle de la nouvelle physique est celle de l'échelle de Planck Λ ∼ Λ2, 19 10 de sorte que eV, on obtient une correction bien plus importante que la valeur physique de la masse du Higgs de l'ordre de l'échelle électrofaible, mH ∼ 100 GeV. En notant m0 la masse nue du Higgs et mH sa masse renormalisée, on obtient : m2H = m20 + δm2H = m20 − λΛ2 (4.2) Il faut donc que les deux termes de droite de cette équation se compensent pour donner la masse mH dont la valeur est de nombreux ordres de grandeur plus faible : on parle d'ajustement n (n-tuning) de la masse du Higgs. Dans le cas ou Λ∼ 19 10, (mH /Λ)2 ∼ −34 10. Les divergences quadratiques dans les corrections de masse du champ de Higgs nécessitent des a justements ns qui ne sont pas naturels. L'asymétrie matière-antimatière dans l'univers L'univers observé semble être fait exclusivement de matière et non d'antimatière. Bien que l'antimatière existe dans les rayons cosmiques ou les phénomènes violents, aucun corps constitué d'antimatière n'a encore été détecté. Pourtant d'après les modèles de création d'univers, matière et antimatière auraient dû être créées exactement dans les mêmes quantités. Lors du refroidissement de l'univers, les particules se sont annihilées avec toutes leurs anti-particules. Ceci n'est pas totalement vrai à cause d'une violation de la symétrie CP prédite par le Modèle Standard pour l'interaction faible. Cependant, cette violation ne serait pas susante pour expliquer la quantité de matière subsistant aujourd'hui. De nouvelles sources de violation CP sont nécessaires. L'unication des constantes de couplage Deux des interactions, électromagnétique et faible, ont pu être uniées dans la théorie électrofaible. L'évolution des constantes de couplage des trois interactions du Modèle Standard à haute énergie est représentée sur la gure 4.1. Des recherches vers des théories de Grande Unication (Grand Unied Theory, GUT) sont en cours : ces théories sont basées sur un groupe de jauge plus grand, contenant celui du Modèle Standard. Gravitation non incluse Le Modèle Standard décrit très précisément trois des quatre interactions connues : la gravitation n'est pas incluse dans ce modèle. Des théories contenant les trois interactions du modèle standard et la gravité sont recherchées. Chapitre 4 : A l'ombre de la physique des particules La matière noire Nous avons vu dans le chapitre précédent que Modèle Standard de la cosmologie requiert une particule massive neutre. Aucune particule de ce type n'existe dans le Modèle Standard de la physique des particules. 4.2 La supersymétrie (SUSY) et le neutralino Dans le Modèle Standard de la physique de particules, il existe une distinction fondamentale entre les bosons et les fermions : les bosons sont les médiateurs des interactions, les fermions les constituants de la matière. Il semble alors naturel de supposer qu'une symétrie les reliant existe pour fournir une image plus uniée de la matière et de ses interactions. La supersymétrie fournit une solution au problème de hiérarchie en postulant l'existence de nouvelles particules de masse similaire mais avec un spin diérent de 1/2. Ainsi, les contributions à 2 δ mH pour les fermions et les bosons sont de signe opposé : δm2H = λ(Λ2 + m2B ) − λ(Λ2 + m2F ) = λ(m2B − m2F ) De plus, à condition que |m2B − m2F |. (4.3) 1 TeV, l'algèbre supersymétrique assure que la divergence quadratique de la masse du Higgs est supprimée à tous les ordres de la théorie des perturbations. Cette algèbre garantit naturellement l'existence de nouvelles particules, avec les propriétés requises, en associant à toutes les particules du Modèle Standard un superpartenaire de même masse et de type de spin opposé. 60 Moyenne mondiale 1991 50 60 α1-1 (Q) α (Q) -1 1 50 αi-1 (Q) αi-1 (Q) 40 α (Q) -1 2 30 20 40 α2-1 (Q) 30 20 α3-1 (Q) α (Q) -1 3 10 10 0 0 103 105 107 109 1011 1013 1015 1017 Q (GeV) Figure 4.1 102 104 106 108 1010 1012 1014 1016 1018 Q (GeV) Mesure des constantes de couplage et extrapolation à haute énergie avec (à droite) et sans (à gauche) supersymétrie [33]. Un autre intérêt des théories supersymétriques provient de l'unication des constantes de couplage à l'échelle GUT ∼ 16 10 GeV, voir gure 4.1. Bien que l'extrapolation des constantes de couplage en utilisant uniquement les particules du Modèle Standard ne parvienne pas à les unier à une valeur commune (gure 4.1 de gauche), il a été démontré [20] que l'introduction de la supersymétrie à l'échelle du TeV unie naturellement ces forces. Ceci est un signe fort en 53 Section 4.2 : La supersymétrie (SUSY) et le neutral ino Particules et champs du Modèle Standard Symbole q = d, c, b, u, s, t l = e, μ, τ ν = νe, νμ, ντ g W± H− H+ B W3 H10 H20 H30 Table Nom quark lepton neutrino gluon boson W boson de Higgs boson de Higgs champ B champ W 3 boson de Higgs boson de Higgs boson de Higgs Partenaires supersymétriques Etats propres d'interaction Etats propres de masse Symbole Nom Symbole Nom q̃L, q̃R squark q̃1, q̃2 squark ̃lL, ̃lR ̃l1, ̃l2 slepton slepton ν̃ sneutrino ν̃ sneutrino g̃ gluino g̃ gluino ± W̃ wino H̃1− higgsino χ̃± chargino 1,2  + H̃2 higgsino B̃ bino   W̃ 3 wino χ̃01,2,3,4 neutralino  H̃10 higgsino   H̃20 higgsino 4.1 Particules du Sodèle Standard et leurs partenaires supersymétriques dans le MSSM [33]. faveur d'une Théorie de Grande Unication, qui prévoit l'unication des couplages à l'échelle de Planck. Le nouveau générateur Q introduit par la supersy métrie est un spineur (spin 1/2) et transforme les fermions en bosons et vice-versa : Q|f ermion⟩ = |bosons⟩ ; Q|bosons⟩ = |f ermion⟩ (4.4) Les fermions et les bosons associés par ce générateur sont appelés des superpartenaires. 4.2.1 Le Modèle Standard Supersymétrique Minimal (MSSM) Il existe diérentes théories supersymétriques. Dans notre cas, nous nous intéresserons uniquement à sa version la plus simple, pour laquelle il n'existe qu'un seul générateur de la supersymétrie. Les superpartenaires ont été recherchés parmi les particules du Modèle Standard. En particulier, si la supersymétrie était une symétrie exacte, un boson de 511 keV, super-partenaire de l'électron, aurait dû être observé. Leur non-détection nécessite de supposer que la supersymétire est brisée, ce qui double le nombre de particules par rapport au Modèle Standard : les fermions sont associés à des super-bosons de spin 0. Les quarks et les leptons ont des partenaires scalaires appelés squarks et sleptons. ± les bosons sont associés à des super-fermions de spin 1/2. Les gluons, les bosons W et i B bosons ont des partenaires fermioniques appelés gluinos (g̃ ), winos ( W̃ ) et binos (B̃ ) respectivement. Le nom générique aux partenaires des bosons de jauge est jaugino. Par ailleurs, la supersymétrie nécessite l'introduction d'un deuxième doublet de Higgs et associe un Higgsino de spin 1/2 à chaque boson de Higgs an de donner des masses aux quarks de type "up" (isospin +1/2) d'une part et de type "down" (isospin -1/2) d'autre part. La table 4.2.1 résume le contenu en particules du MSSM. Chapitre 4 : A l'ombre de la physique des particules 4.2.2 Le neutralino An de garantir la stabilité du proton en supprimant les nouveaux canaux d'annihilation ouverts par l'existence des nouvelles particules supersymétriques, une nouvelle symétrie est introduite : la R-parité [66]. La R-parité est un nombre quantique dé comme : R = (−1)3B+L+2S (4.5) où B est le nombre baryonique, L le nombre leptonique, S le spin de la particule concernée. Les particules du Modèle Standard sont caractérisées par une R-parité de +1 et les superpartenaires par R = -1. Dans le cas où la R-parité est conservée, les conséquences sont les suivantes : 1. la production de particules supersymétriques se fait par paires, 2. la désintégration d'une particule supersymétrique donne un nombre impair de particules sypersymétriques (pouvant être accompagnées de particules du Modèle Standard), 3. la particule supersymétrique la plus légère (LSP pour Lightest Susy Particle) est stable et ne disparaît que par annihilation. Il existe diérents candidats supersymétriques pour être la LSP, les axinos et les gravitinos par exemple. Cependant, ces particules sont attendues avec des sections ecaces d'interactions extrêmement faibles, les rendant quasiment indétectables. Nous ne nous y intéresserons donc pas et nous nous concentrerons en revanche sur le neutralino le plus léger. Dans le MSSM, le neutralino est le fermion de majorana : les jauginos faibles neutres (le Bino B̃ superpartenaire du photons γ et le wino W̃3 0 superpartenaire du Z ) et les higgsinos neutres possèdent les mêmes nombres quantiques et se mélangent pour donner quatre états propres de masse, diérents des états propres de SU(2) H̃20 ), la matrice de masse des neutralinos ̃ χ01;2;3;4 ⊗ B̃ ; W̃3 ; H̃10 ; U(1). Dans la base (   M1 0 −MZ cos β sin θW MZ sin β sin θW  0 M2 MZ cos β cos θW −MZ sin β cos θW   MN =   −MZ cos β sin θW MZ cos β cos θW  0 −μ MZ sin β sin θW −MZ sin β cos θW −μ 0 (4.6) où : M1 and M2 sont les paramètres de brisure douce les bino et wino, θW estl'angle de Weinberg angle ; tan β exprime le rapport des valeurs attendues μ est le paramètre de masse du higgsino. dans le vide pour les bosons de Higgs, Les neutralinos peuvent s'exprimer selon une combinaison linéaire de jauginos : χ = N11 B̃ + N12 W̃3 + N13 H̃10 + N14 H̃20. 2 2 (4.7) 2 2 où N11 est la fraction de bino, N13 est la fraction de wino et N13 + N14 est la fraction de higgsino. Ces coecients déterminent les couplages et régissent la phénoménologie associée. Section 4.2 : La supersymétrie (SUSY) et le neutralino 4.2.3 Brisure de la supersymétrie Dans le MSSM, 109 paramètres libres sont introduits limitant considérablement son pouvoir prédictif. An d'obtenir un modèle phénoménologique viable, il est nécesaire de faire des hypothèses simplicatrices. L'élaboration d'une théorie brisant spontanément la supersymétrie à l'échelle électrofaible est très dicile puisqu'il ne faut pas introduire de nouvelles particules imcompatibles avec les observations. 4.2.3.1 Le modèle de supergravité minimale : mSUGRA Le modèle mSUGRA est un scenario provenant d'un modèle phénoménologique simple basé sur des hypothèses théoriques [123]. Une nouvelle particule, le gravitino g̃, particule de spin 3/2 et partenaire supersymétrique du graviton (spin 2), doit être introduite. La supersymétrie contient alors une description de la gravitation. Le nombre de paramètres libres est considérablement réduit en supposant des conditions aux limites à l'échelle de Grande Unication : l'unication des couplages des jauginos αU : α 1 (MU ) = α2 (MU ) = α3 (MU ) ≡ αU l'unication de la masse des jauginos m1/2 (4.8) : M1 (MU ) = M2 (MU ) = M3 (MU ) ≡ m1/2 (4.9) l'universalité de la masse des scalaires (sfermions et bosons de Higgs) m0 : MQ̃ (MU ) = MũR (MU ) = Md ̃R (MU ) = ML̃ (MU ) = Ml̃R (MU ) = MHu (MU ) = MHd (MU ) ≡ m0 l'universalité des couplages trilinéaires A0 : Au (MU ) = Ad (MU ) = Al (MU ) ≡ A0 (4.10) En exigeant la minimisation du potentiel de Higgs, pour conserver la brisure de symétrie électrofaible, on se retrouve avec cinq paramètres libres, quatre continus et un discret : tan β, m1/2, m0, A0, sign(μ), (4.11) 4.2.3.2 Le modèle de brisure par anomalie : AMSB La modèle AMSB (pour Anomaly Mediated Supersymmetry Breaking) est une alternative à la supergravité dans le sens où il fournit une solution élégante au problème des saveurs . En eet, la physique des saveurs indique que les courants neutres induisant des changements de saveurs sont très rares, ce qui s'explique mieux dans le cadre d'une brisure AMSB que dans celui de mSUGRA. Le modèle mSUGRA peut également présenter une diculté liée à ce que la masse du gravitino n'y est pas contrainte, ce qui peut poser un problème du point de vue cosmologique. Si sa masse est xée à un ordre de grandeur identique à celle des sfermions et jauginos, alors son taux de désintégration lent (lié à ce qu'il ne se couple que par gravité) le conduit à se désintégrer typiquement pendant la nucléosynthèse primordiale. Les diérentes hypothèses formulées permettent de réduire considérablement le nombre de paramètres libres. 4.2 Représentation schématique des diérents états de Kaluza-Klein. Ici est illustré δ un modèle à une dimension supplémentaire ( = 1) compactiée sur un cercle [36]. Etats de Kaluza-Klein Les modèles à dimensions supplémentaires universelles fournissent un candidat à la matière noire, la particule de Kaluza-Klein la plus légère (LKP). Cette particule est stable si la K-parité (ou parité de Kaluza-Klein) est conservée dans les interactions entre particules, c'est-à-dire si la quantité (-1) n est conservée à chaque vertex. Ceci implique par exemple que l'état n = 1 ne 57 Section 4.4 : Emission γ peut pas se désintégrer vers l'état n = 0, et donc que la L KP est stable. Le LKP, un boson probablement associé à la première excitation de KK du photon et du neutrino, est un bon candidat à la matière noire. Nous nous intéresserons ici à la première excitation du photon que (1) l'on nomme B. La densité relique de B relique si 400 GeV. (1) mB (1) a été calculée [204] : elle est compatible avec la mesure de la densité. 1200 GeV. Les contraintes sont résumées dans la gure 4.3. 0.6 Overclosure Limit 0.5 Ωh 2 0.4 0.3 0.2 Ωh = 0.16 ± 0.04 2 0.1 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 mKK (TeV ) Figure 4.3 Densité relique en fonction de la masse de la particule B(1). La ligne continue correspond au calcul de la densité relique sans co-annihilations. Les lignes pointillées indiquent les cas où il y a des co-annihilations avec la première excitation de l'électron (1) droit eR (courbes noires : de masse entre B (1) ∆ = 0.01, courbes rouges ∆ = 0.05, où ∆ est la diérence relative (1) et eR 4.4 Emission γ 4.4.1 Spectre en énergie 4.4.1.1 Continuum gamma du spectre d'annihilation En général, les particules produites dans l'annihilation des particules de matière noire sont instables et ne conduisent aux particules observables qu'après diérents processus. Dans le cas de la production d'une paire de quarks par exemple, ceux-ci vont s'hadroniser en produisant d'autres particules du Modèle Standard, qui nissent par se désintégrer et donner des particules stables. Ces dernières peuvent être des photons, qui proviennent de la désintégration des pions neutres produits dans le processus d'hadronisation π0 → γ γ. Chaque état nal produit un spectre continu de particules stables, dont la gamme en énergie s'étend de 0 à mDM, mDM étant la masse de la particule de matière noire et donc l'énergie maximale qu'il est possible de transmettre à une particule dans l'état nal. Du point de vue du rayonnement cosmique 58 Chapitre 4 : A l'ombre de la physique des particules exotique, le spectre source est alors décrit par la somme des fonctions de fragmentation des diérents états naux intervenants. Considérant la particule observée k, le spectre source est donné par : ( dN dE ) = k ∑ ( ωi i dNi dE ) (4.12) k Le facteur (dN/dE)γ décrit les spectres diérentiels des photons obtenus pour l'état nal ωi. i, dont la probabilité associée est Les valeurs de ωi sont déterminées par le modèle de nouvelle physique utilisé. Elles ne peuvent pas être exprimées analytiquement, car elles font en général intervenir de la QCD dans un régime non perturbatif. La prédiction de ces facteurs est donc soumise à l'utilisation de codes de simulation Monte Carlo comprenant une description empirique des processus d'hadronisation comme PYTHIA [209]. 4.4.1.2 Raies de photons mono-énergétiques L'absence de couplage des particules de matière noire au champ électromagnétique supprime la production directe de gamma dans l'état nal lors de l'annihilation de particules de matière noire. Trois processus mono-énergétiques : 1 sont possibles dans la production directe conduisant alors à des raies χχ → γγ, γ 0 Z, γ h0. Leur observation serait une indication forte en faveur d'une origine d'annihilation de matière noire. En eet, les photons sont produits à des énergies bien dénies, caractéristiques de la masse des particules de matière noire dont ils sont issus et très dicilement imitables par des sources astrophysiques conventionnelles : Eγγ = mχ ( EγZ 0,h0 = mχ 1 − m2 0 ) (4.13) Z,h0 4m2χ 4.4.2 Modèles considérés 4.4.2.1 LSP Les canaux d'annihilation principaux des neutralinos conduisent à des paires de fermionantifermion, à des paires de bosons de jauge et à des états naux contenant des bosons de Higgs (voir gure 4.4 et 4.5). Leurs sections ecaces sont de l'ordre de 10 −26 3 −1 cm.s : la densité relique des neutralinos est donc naturellement compatible avec les contraintes cosmologiques, voir section 3.4.2 page 46. Du fait de la masse faible des fermions devant celle présumée des neutralinos, supérieure à 10 GeV, l'annihilation de neutralinos en fermion-antifermion est toujours autorisée (neutrinos, leptons, quarks). Cependant, dans la limite des faibles vitesses des neutralinos, la section ecace d'annihilation est supprimée par des contraintes d'hélicité [119]. De plus, les canaux d'annihilation en quarks (u,d,s) et leptons (e, (c,b,t ) ou en τ. μ) légers sont négligeables devant les canaux quarks lourds Lorsque l'annihilation en quarks top est autorisée 2, le canal d'annihilation dominant en paires de fermions est en quarks t. 1. Tous sont possibles dans le cas d'un spin entier, soit pour une particule de Kaluza-Klein B(1). Seuls les deux premiers dans le cas d'un spin demi-entier, soit pour un neutralino χ. 2. mtop = 172.0 ± 0.9 ± 1.3 GeV [21] Section 4.4 : Emission γ Figure Figure 4.4 4.5 Diagrammes d'annihilation de neutralinos en bosons de jauges. Diagrammes d'annihilation de neutralinos en paires de photons. 59 Chapitre 4 : A l'ombre de la physique des particules L'annihilation en bosons de jauge de l'interaction faible est autorisée dès que la masse du neutralino est supérieure à la masse des bosons neutralino χ. 3, 4 et dépend du contenu en champ du Ces canaux d'annihilation sont dominants pour des neutralinos principalement 0 higgsinos. Les particules nales sont les produits de la désintégration du Z de hadrons et ∼ et des W ± ( ∼ 70 % 30 % de leptons). 4.4.2.2 LKP (1) Les rapports d'embranchement de l'annihilation des particules B (1) leur masse [33] dans la limite où mB est grand devant la masse des produits d'annihilation . Contrairement au cas de la supersymétrie , il n'y a pas de suppression chir ale des canaux d'annihilation en fermions-antifermions [ 49] . En particulier, les annihilations en paires de leptons chargés et paires de quarks sont dominantes puisque le LZP est un boson. Les diagrammes correspondants sont illustrés gure 4.6. Les rapports d 'embranchement pour les diérents can aux d 'annihilation sont donnés dans la table 4.2. B1 f B1 f f1 B1 Figure Table 4.2 f1 f 4.6 B1 (1) Canaux d'annihilation des B f conduisant à des fermions [204]. Canal d'annihilation paires de leptons chargés 59 % paires de quarks 35 % paires de neutrinos 4 % bosons de jauge 1.5 % bosons de Higgs 0.5 % Rapports d'embranchement des diérents canaux d'annihilation de la LZP [32]. 3. mW ± = 80.399 ± 0.023 GeV [21] 4. mZ 0 = 91.1876 ± 0.0021 GeV [21] Troisième partie L'expérience H.E.S.S. 5 La technique d'imagerie Cherenkov Contents 5.1 L'atmosphère : un calorimètre naturel................. 64 5.2 Le développement des gerbes atmosphériques............ 64 5.2.1 Les gerbes électromagnétiques....................... 64 5.2.2 Les gerbes hadroniques........................... 66 5.2.3 Diérences majeures............................ 67 5.3 Le rayonnement Cherenkov....................... 69 5.4 Principe de détection........................... 69 63 64 Chapitre 5 : La technique d'imagerie Cherenkov Comme on l'a vu précédemment, la détection des γ par satellite devient dicile au-dessus de 100 GeV, leur ux étant trop faible. À ces énergies, on utilise donc une technique indirecte de détection au sol, en mettant à prot la grande gerbe de particules secondaires créée par interaction du rayon gamma incident (ou du rayon cosmique incident) dans la haute atmosphère. Ce chapitre a pour objectif de décrire brièvement le développement des gerbes électromagnétiques et hadroniques ainsi que le mécanisme de formation et de détection du rayonnement Cherenkov. Les principales caractéristiques des gerbes, utiles par la suite, seront explicitées. 5.1 L'atmosphère : un calorimètre naturel La détection directe des rayons cosmiques de très haute énergie est irréalisable du fait de la décroissance du spectre d'énergie en loi de puissance. La solution imaginée est donc d'étudier les particules secondaires produites lors de l'interaction de la particule primaire avec les atomes de l'atmosphère terrestre. Celle-ci joue le rôle d'un calorimètre dans lequel les particules vont dissiper toute leur énergie. Cependant, contrairement aux calorimètres utilisés en physique des particules, l'atmophère n'est pas un milieu si simple : il n'est pas homogène, ni dans le temps ni dans l'espace. De plus, le champ magnétique terrestre inue sur l'évolution des particules chargées. Ces variations constituent donc la principale source d'incertitudes dans les résultats présentés. 5.2 Le développement des gerbes atmosphériques Bien que toujours présentes dans une gerbe, les interactions du primaire dans l'atmosphère dépendent fortement de sa nature : Une gerbe initiée par un photon ou un électron ne contiendra aucune composante hadronique. Ce type de gerbe est appelée gerbe électromagnétique car le développement de la cascade est dominé par l'interaction électromagnétique. Les noyaux engendrent des gerbes dites hadroniques, pouvant comprendre une composante électromagnétique (venant de π0 créés dans l'interaction) se développant parallèlement et en emportant une énergie importante du primaire. La nature stochastique des processus d'interaction mis en jeu a pour conséquence que chaque gerbe est unique et peut avoir des caractéristiques éloignées du comportement moyen. Une gerbe d'une énergie donnée peut ainsi ressembler à une gerbe d'une autre énergie, ou provenant d'une particule primaire diérente. Cette propriété rend particulièrement dicile l'identication absolue des gerbes. 5.2.1 Les gerbes électromagnétiques Les gerbes électromagnétiques désignent les cascades de particules produites par l'interaction d'un photon ou d'un électron (ou d'un positon) de haute énergie avec la matière. Les gerbes électromagnétiques ont un comportement moins uctuant que les gerbes hadroniques : en eet, les photons et les électrons ont une variété de modes d'interaction probable beaucoup moins riche que les hadrons. Il en résulte une régularité dans le développement de la cascade que l'on peut plus facilement caractériser. La théorie de l'électrodynamique quantique permet d'eectuer des calculs précis décrivant le développement des gerbes electromagnétiques. Section 5.2 : Le développement des gerbes atmosphériques La description détaillée du développement d'une gerbe atmosphérique nécessite le recours à la simulation numérique. Néanmoins, il est possible, en première approximation, de décrire analytiquement le comportement moyen d'une gerbe électromagnétique. An de comprendre les principales caractéristiques des gerbes électromagnétiques, considérons le modèle simple de Heitler [101]. Les principaux processus intervenant dans le développement d'une gerbe électromagnétique sont les suivants : le rayonnement de freinage des électrons et positons (bremsstrahlung) : en passant dans le champ coulombien d'un noyau, ces particules perdent de l'énergie en émettant un photon ; la conversion de photons de haute énergie en paires e + − /e, également sous l'eet du champ coulombien des noyaux ; les petites déviations angulaires des électrons et positons également dues au champ coulombien des noyaux (diusion multiple) qui déterminent le développement latéral de la gerbe ; la perte d'énergie des électrons et positons due à l'ionisation ou l'excitation des atomes ; Dans les trois premier s processus, une seule longueur caractéristique intervient : la longueur de radiation X0. La perte relative d'énergie d'un électron par rayonnement de freinage lorsqu'il traverse une épaisseur dx de matière est donnée par : d ⟨E⟩ dx ≈ E X0 (5.1) où X0 est la longueur de radiation.
12,930
2012ECLI0023_13
French-Science-Pile
Open Science
Various open science
2,012
Impact de la fissuration sur les propriétés de rétention d‘eau et de transport de gaz des géomatériaux : Application au stockage géologique des déchets radioactifs
None
French
Spoken
6,745
11,448
On considère que le module d‘Young E est égal à 4 GPa et le coefficient de Poisson à 0.3. De même, l‘angle de frottement de Coulomb est égal à 20° et la cohésion à 3 MPa en traction et en compression. Ces paramètres sont ceux de l‘argilite ([GENS2007], [WILE2008]). La masse volumique de l‘argilite est prise égale à 2300Kg/m3. Loi fluide Dans le modèle, on utilise une loi d‘écoulement bi-phasique en saturation partielle où la température est constante. Les paramètres de cette loi sont décrits ci-dessous. On considère que la diffusion a lieu uniquement dans l‘argilite. Il n‘y a donc pas de diffusion dans les poreux, le distributeur et les chambres. Tableau 7 2 : paramètres de la loi d’écoulement utilisés pour la modélisation Matériau Argilite Poreux Chambres distributeur Porosité 0.18 0.16 1.00 0.30 Tortuosité 0.25 1 1 1 Courbes de rétention d’eau Pour des raisons numériques (convergence des calculs), nous considérons que les différents éléments (argilite, frittés, chambres,...) sont des milieux poreux capillaires, qui se distinguent par leur porosité. Avec cette hypothèse, on leur associe des courbes de rétention d‘eau, en utilisant le modèle de Van Genuchten (équation 2-12), reliant leur degré de saturation à la pression capillaire de leur réseau poreux. Les paramètres des modèles de Van Genuchten sont donnés par matériau au tableau 7.3. Tableau 7 3 : paramètres du modèle de Van Genuchten utilisés pour la modélisation Matériau Argilite Poreux Chambres distributeur n 1.58 1.31 1.5 1.5 Pr (Pa) 21.9 106 1 105 1 104 1 104 Les paramètres n et Pr de l‘argilite sont calés en utilisant des mesures expérimentales réalisées dans le cadre de cette thèse (optimisation par la méthode des moindres carrés). En utilisant la relation de Kelvin-Laplace, le paramètre Pr correspond à des pores de diamètre égal à 13 nm 265 pour l‘argilite, ce qui est réaliste pour l‘argilite (cf. chapitre 5). La figure 7.6 présente la courbe de rétention choisie pour l‘argilite du COx : Isotherme de sorption de l'argilite du COx (modèle de Van Genuchten n=1.58 et Pr=21.9MPa) 1 Résultats expérimentaux Modèle VG 0.8 S w 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 HR Figure 7 6 : courbe de rétention d’eau de l’argilite du Callovo-Oxfordien (résultats expérimentaux et modèle de Van Genuchten) (échantillons de l’étude et de *SKOC2010b+ Pour les poreux, les paramètres n et Pr ont également fait l‘objet d‘un calage à partir de données expérimentales obtenues dans le cadre de la thèse. En utilisant la relation de KelvinLaplace, on obtient une taille de pores caractéristiques égale à 3 m pour les poreux. Cette valeur ainsi calculée est proche de celle indiquée par le constructeur (SINTERTECH) : entre 3.6 et 20 m. Le distributeur et les chambres amont et aval sont des vides, et non pas des milieux poreux. Pour des raisons numériques, on leur associe des courbes de rétention avec une faible pression d‘entrée d‘air (paramètre Pr) et une pente élevée, de manière à ce que ces milieux se désaturent rapidement et fortement dès qu‘une succion est appliquée. Pour ces matériaux, les paramètres n et Pr sont choisis de manière arbitraire. Les pores du distributeur ont un diamètre d‘environ 5 mm, ce qui correspond à une pression d‘entrée d‘air de 50 Pa. Numériquement, il est difficile d‘apppliquer une courbe de rétention avec une pression d‘entrée d‘air si faible, vu les fortes variations de saturation engendrées par une faible évolution de la succion. C‘est pourquoi, une valeur plus élevée est considérée. Cette même valeur du paramètre Pr est utilisée pour les chambres. L‘utilisation de la relation de Kelvin-Laplace donne une taille caractéristique de 30 m pour ces matériaux. Cependant, pour le distributeur et les chambres, les paramètres n et Pr feront l‘objet d‘une étude de sensibilité pour les optimiser. Perméabilité à l’eau La perméabilité relative à l‘eau de l‘argilite du COx est donnée par le modèle de Van Genuchten Mualem (relation 2-19). Ses paramètres n et Pr sont obtenus, par le calage des 266 données expérimentales de la courbe de rétention de [SKOC2010b] via le modèle de Van Genuchten (relation 2-12). Pour le paramètre , on considère sa valeur par défaut (0.5). La perméabilité à l‘eau de l‘argilite, en conditions saturées, est égale à 6 10-21m2 (donnée expérimentale). Perméabilité au gaz La perméabilité relative à l‘eau de l‘argilite du COx est donnée par le calage des données expérimentales de [SKOC2010b] à l‘aide du modèle de Van Genuchten Mualem (relation 219). Ses paramètres sont n=1.58, Pr=21.9MPa et =1.638. Pour le modèle, considère que la perméabilité au gaz en conditions sèches est 100 fois plus grande que la perméabilité à l‘eau en conditions saturées [GERA2011]. Pour les poreux, le distributeur et les chambres, la perméabilité relative est toujours égale égale à 1. On associe une perméabilité à l‘eau (en conditions saturées) et au gaz (en conditions sèches) égale à 1. 10-12 m2, pour les poreux et le distributeur et égale à 1. 10-10m2 pour les chambres amont et aval. 7.4.1.4 Conditions initiales et aux limites On suppose que l‘argilite est complètement saturée en eau à l‘état initial et que le distributeur et les chambres sont fortement désaturés en début d‘essai. On leur impose une saturation initiale proche de 0, en prenant une pression d‘eau négative (Pw0=-0.068 MPa). Avant la simulation, on effectue une étape de consolidation durant laquelle le confinement est imposé à 12 MPa. Les conditions de référence de l‘étude sont Pg,réf=1 105 Pa, Pw,réf=1 105 Pa et Tréf=293K. L‘injection de gaz par paliers ainsi que l‘ouverture du robinet de la chambre aval compliquent les simulations numériques car cela revient à changer en permanence les conditions aux limites :  L‘injection de gaz est représentée par une augmentation de la pression de gaz dans la chambre amont jusqu‘à la pression souhaitée;  Pendant la phase de stabilisation, le système évolue librement à volume de gaz constant : il n‘y a plus de condition sur la pression de gaz en amont;  L‘ouverture du robinet de la chambre aval est réalisée numériquement à l‘aide d‘une condition limite mixte, qui autorise des flux d‘eau et de gaz vers l‘extérieur au prorata des perméabilités relatives à l‘eau et de gaz dans la chambre aval [COLL2003]. Dans ce qui suit, on ne prend en compte que, dans un premier temps, que les 19 premiers paliers d‘injection, c'est-à-dire jusqu‘à la détection du gaz en aval de l‘échantillon (passage discontinu). 7.4.2 Résultats numériques Plusieurs simulations numériques sont effectuées. Les conditions aux limites hydriques sont données au tableau 7.3 pour chaque cas de simulation. Notons que pour des raisons numériques, nous ne pouvons pas imposer des pressions d‘eau nulles, donc on impose des pressions d‘eau initiales négatives lorsque l‘élément est initialement dé-saturé en eau. Ici, on a choisi de manière arbitraire une pression égale à -0.068MPa. Une pression d‘eau initiale égale à 0.1 MPa correspond à l‘état saturé de l‘élément. Entre les deux (0.001 MPa par exemple), cela veut dire que l‘élément est partiellement saturé en eau. Tableau 7 4 : Pression d’eau initiale dans chaque élément pour les différentes simulations réalisées Pw0 (MPa) N° simulation 0 1 2 3 4 5 6 7 8 9 10 11bis 12 13 14 15 16 argilite poreux amont poreux aval distributeur chambre aval -0.068 -0.068 -0.068 -0.068 -0.068 0.1 -0.068 0.1 -0.068 0.1 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 -0.068 0.1 -0.068 0.001 0.1 0.001 0.1 -0.068 0.001 0.1 0.1 0.1 -0.068 0.001 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.001 0.1 0.1 0.1 0.1 -0.001 0.1 0.1 0.1 0.1 0.001 0.1 0.1 0.1 0.1 0.001 chambre amont -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 -0.068 0.1 0.1 0.1 0.1 0.1 0.1 Dans un premier temps, une étude de sensibilité sur les paramètres de la courbe de rétention des chambres et du distributeur a été réalisée, mettant en évidence l‘influence de présence des matériaux sur la réponse du système. La simulation n°0 est réalisée avec tous les éléments initialement dé-saturés. La figure 7.7 présente les résultats des pressions d‘eau et de gaz dans la chambre aval. En début d‘essai, la pression d‘eau est négative, ce qui correspond à un état dé-saturé de la chambre aval. La pression d‘eau augmente au fur et à mesure que la chambre aval se sature en eau (eau expulsée de l‘échantillon). Comme la chambre aval est initialement dé-saturé, la pression de gaz est égale à la pression atmosphérique (0.1 MPa). Cette pression augmente au cours du temps au fur et à mesure que le gaz s‘accumule dans la chambre aval (avant ouverture du robinet). Le passage d‘eau simultanément à l‘expulsion d‘eau dans la chambre aval, augmente la pression d‘eau (compressible) qui augmente jusqu‘à 2 MPa à la fin de l‘essai. Cette valeur est très élevée par rapport aux résultats expérimentaux (en rouge) inférieurs à 0.01 MPa. Pression d'eau et de gaz dans la chambre aval obtenue par la simulation n°0 comparaison avec les pressions amont et aval (exp) 2,5 2 Pamont exp Paval exp 2 1,5 1,5 1 1 0,5 P amont Pg P (MPa) exp (MPa) Pw 0,5 0 0 -0,5 -5 0 5 10 15 20 25 Temps (j) Figure 7 7 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation 0 Afin d‘avoir des résultats plus représentatifs de l‘expérience, on considère qu‘initialement l‘argilite, le poreux aval et la chambre aval sont saturés en eau tandis que les autres éléments (distributeur et chambres amont et poreux amont) sont dé-saturés. C‘est la simulation n°1 : les résultats des pressions d‘eau et de gaz de la chambre aval sont présentés à la figure 7.8. Pour ce jeu de conditions aux limites initiales, les pressions d‘eau et de gaz sont plus faibles que celles de la simulation n°1 car le gaz passe moins facilement du fait de la plus grande saturation de l‘argilite. Cependant, les pressions d‘eau et de gaz sont très élevée (jusqu‘à 1.8 MPa) par rapport aux mesures expérimentales. aval (exp) 2,5 0,1015 Pamont Paval exp Pw 2 Pg 0,101 0,1005 1 exp (MPa) P (MPa) aval P 1,5 0,1 0,5 0 0,0995 -5 0 5 10 15 20 25 Temps (j) Figure 7 8 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation 1 La simulation n°2 reprend les conditions initiales précédentes à la différence près que la chambre aval est fortement dé-saturée (Pw=0.001 au lieu de 0.1 MPa). La figure 7.9 présente les résultats de pression d‘eau et de gaz dans la chambre aval dans ces conditions. En désaturant fortement la chambre aval, sa pression d‘eau chute de manière significative. De même, la pression de gaz est plus faible que celle des simulations précédentes. Les conditions aux limites de cette simulation sont les plus proches de celles de l‘essai. Nous allons donc les garder pour la suite. Notons cependant que la pression de gaz dans la chambre aval est plus élevée que celle mesurée. Ceci signifie que les échanges de gaz dans les matériaux modélisés sont plus importants que l‘expérience. compara aval (exp) 2,5 0,1015 Paval exp Pamont exp Pw 2 Pg 0,101 P 1 0,1005 0,5 (MPa) exp P(MPa) aval 1,5 0,1 0 -0,5 0,0995 -5 0 5 10 15 20 25 Temps (j) Figure 7 9 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation 2 Pour la simulation n°3, on garde les conditions initiales précédentes : argilite et poreux aval saturés en eau, chambre aval partiellement saturée en eau et distributeur, chambre amont et fritté poreux amont sec. En revanche, on modifie la courbe de rétention de la chambre aval en diminuant le coefficient Pr par 10 (Pr=1000 au lieu de 10000Pa). La comparaison des simulations 2 et 3 permet donc d‘étudier l‘influence de la courbe de rétention de la chambre aval sur les résultats de pression. La figure 7.10 présente les résultats de cette simulation. Avec une courbe de rétention plus raide pour la chambre aval, les pressions d‘eau et de gaz sont plus faibles dans la chambre aval (inférieures ou égale à 0.15 MPa). En revanche, le gaz traverse l‘échantillon dès le premier palier, ce qui n‘est pas le cas en réalité. Pression d'eau et de gaz dans la chambre aval obtenue par la simulation n°3 comparaison avec les pressions amont et aval (exp) 2,5 0,16 Pamont exp 0,14 2 0,12 exp amont 0,1 0,08 P 1 P (MPa) 1,5 0,06 Paval exp 0,5 Pw 0,04 Pg 0 0,02 0 5 10 15 20 25 Temps (j) Figure 7 10 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation n°3 Pour la simulation n°4, nous divisons le paramètre Pr des chambres d‘injection encore par 10 : Pr=100. Les résultats des pressions d‘eau et de gaz dans la chambre aval sont illustrés à la figure 7.11. On en conclue que diminuer la pression d‘entrée d‘air (Pr) de la chambre aval contribue à augmenter la pression d‘eau dans la chambre aval et a très peu d‘effet sur la pression de gaz, dont les valeurs restent plus élevées que celles mesurées expérimentalement. Pression d'eau et de gaz dans la chambre aval obtenue par la simulation n°4 comparaison avec les pressions amont et aval (exp) 2,5 0,16 Pamont exp Paval exp 2 0,14 Pw amont P 0,12 1,5 0,1 P (MPa) exp Pg 1 0,08 0,5 0,06 0 0,04 0 5 10 15 20 25 Temps (j) Figure 7 11 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation n°4 Nous souhaitons étudier l‘influence du paramètre n de la courbe de rétention de la chambre aval sur les résultats de pression de gaz et d‘eau de cette chambre. Pour cela, on effectue la 272 simulation n°5 où l‘on reprend les mêmes conditions que pour la simulation n°4 en doublant la valeur de n, qui vaut ainsi 3 au lieu de 1.5. Les résultats sont présentés à la figure 7.12. L‘augmentation du paramètre n de la courbe de rétention de la chambre aval a pour effet de diminuer de manière significative la pression de gaz. De toutes les simulations réalisées de 0 à 5, les résultats de la 5 sont les meilleures même si les pressions sont encore plus élevées que celle mesurée. On va donc garder Pr=100 (valeur réaliste) et n=3 pour la courbe de rétention de la chambre aval. Pression d'eau et de gaz dans la chambre aval obtenue par la simulation n°5 comparaison avec les pressions amont et aval (exp) 2,5 0,2 Paval exp Pamont exp Pw 1,5 amont P 0,15 Pg 0,1 1 0,05 0,5 P (MPa) exp 2 0 0 -0,05 -5 0 5 10 15 20 25 Temps ( j ) Figure 7 12 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation n°5 Dans la simulation n°6, on va étudier l‘influence de la courbe de rétention du distributeur qu‘on fixe à Pr=100 et n=3 et des poreux dont on diminue le Pr de moitié. Les résultats de pression d‘eau et de gaz dans la chambre aval sont présentés à la figure 7.13. Avec ce nouveau jeu de paramètre, les pressions d‘eau et de gaz deviennent similaires dans la chambre aval. Les résultats sont cohérents mais ils restent plus élevés que les pressions mesurées. Ceci est au fait qu‘il y a un passage de gaz dans le matériau pour de très faibles dé-saturations de l‘argilite, ce qui serait dû à une courbe de perméabilité relative inadéquate. Paval exp 0,18 Pw amont P 0,16 0,14 P (MPa) exp Pg 1,5 1 0,12 0,5 0,1 0 0,08 -5 0 5 10 15 20 25 Temps ( j ) Figure 7 13 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation n°6 Afin d‘étudier l‘influence de la relation Krg(Sw) de l‘argilite, on réalise la simulation n°7 où l‘on remplace les paramètres du modèle de Van Genuchten Mualem par : m=0.7 et =0.5. Ceci n‘a pas de grande influence sur les résultats. De ce fait, ceux-ci ne sont pas présentés dans le présent document. Un passage de gaz plus rapide est peut être dû à la courbe de rétention de l‘argilite, qui laisserait passer du gaz aux faibles dé-saturations. Pour étudier l‘influence de la courbe de rétention, on réalise la simulation n°8 où l‘on garde les conditions de la simulation n°6, et on remplace la courbe de rétention de l‘argilite par celle de référence de l‘Andra : n=1.49, Pr=15 MPa. Les résultats sont tracés à la figure 7.14 . Pression d'eau et de gaz dans la chambre aval obtenue par la simulation n°8 comparaison avec les pressions amont et aval (exp) 2,5 Press ion d'eau et de gaz dans la chambre aval obtenue par la simulation n°8 comparaison avec la pression aval (exp) 0,16 0,1015 0,16 Paval exp Pamont exp Pw Pg 0,15 0,13 g 0,1005 0,12 P aval 0,12 1 w 0,13 0,14 échelle P , P (MPa) 1,5 exp (MPa) 0,14 Pg P(MPa) exp (MPa) 0,15 0,101 Pw 0,11 P amont échelle Paval exp 2 0,11 0,1 0,5 0,1 0 0,09 -5 0 5 10 Temps (j) 15 20 25 0,1 0,0995 0,09 -5 0 5 10 15 20 25 Temps (j) Figure 7 14 : résultats de pression d’eau et de gaz dans la chambre aval pour le cas de simulation n°8 La variation des pressions d‘eau et de gaz dans la chambre aval est similaire à celle mesurée expérimentalement. Cependant, elle reste beaucoup plus élevée. Profil de saturation dans l'argilite au cours du temps simulation n°8 1 0,998 0,996 S w 0,994 0,992 0,99 Sw argilite coté amont Sw argilite milieu Sw argilite coté aval 0,988 0,986 0 5 10 15 20 Temps (j) Figure 7 15 : profil de saturation dans l’argilite pour le cas de simulation n°8 La figure 7.15 présente le profil de saturation de l‘argilite au cours du temps pour ce cas de simulation (n°8). On y observe que la saturation diminue du côté amont de l‘échantillon, tout en restant élevée (Sw>98%). Cette faible dé-saturation a pour conséquence de permettre un passage de gaz au travers du matériau, ce qui n‘est pas observé expérimentalement. Dans les autres simulations, nous avons fait varier les conditions initiales, notamment les pressions d‘eau initiales dans les différents éléments. Pour ne pas surcharger le manuscrit, ces résultats sont seulement résumés ici. Ils varient en fonction des conditions imposées mais les pressions en chambre aval restent plus élevées que celles mesurées expérimentalement. En traçant les profils de saturation dans les différents matériaux, on observe une dé-saturation partielle, qui permet un passage de gaz. Afin de résoudre ce problème, nous devons limiter les échanges entre la chambre aval et l‘argilite pour être plus représentatif de l‘expérimentation. Cependant, ceci suggère de développer de nouveaux éléments, autres que Wepro, permettant cet échange puis d‘introduire des hétérogénéités pour permettre un passage de gaz discontinu. Ceci n‘a pas encore été réalisé. 7.5 Conclusion et perspectives Nous avons réalisé un ensemble de simulations numériques en vue de reproduire une expérience de percée de gaz dans l‘argilite du Callovo-Oxfordien. L‘objectif à terme est d‘identifier les mécanismes responsables de la percée de gaz (diffusion, snap off, etc.). Dans un premier temps, nous avons utilisé un modèle bi-phasique continu (eau/gaz) pour réaliser les simulations. Cette première partie n‘est pas encore finie. Une fois que nous aurons résolu 275 tous les problèmes numériques, nous pensons que cette approche n‘est pas la meilleure car elle suppose des écoulements homogènes et continus de gaz dans l‘argilite. Or, l‘expérimentation réalisée au LML laisse penser à un passage de gaz discontinu dans un premier temps, puis continu lorsque la pression d‘injection de gaz est suffisamment grande, via des chemins préférentiels d‘écoulement. En effet, de nombreux travaux expérimentaux ont mis en évidence le développement de ces chemins préférentiels dans les matériaux argileux lors de la migration de gaz [HORS1997], [HORS1999] et [CUSS2011]. En terme de simulation numérique, l‘étape suivante consiste à introduire des zones de fragilité dans le matériau (plus poreux), qui se referment suite au confinement mais qui peuvent s‘ouvrir lorsque la pression d‘injection de gaz est suffisante, comme cela a déjà été réalisé par [GERA2011] pour simuler les expérimentions de percée de gaz conduites au BGS. 276 CONCLUSION GENERALE ET PERSPECTIVES Ce travail de thèse contribue à la caractérisation de l‘impact d‘un endommagement diffus sur les propriétés de rétention d‘eau et de transport de gaz des matériaux utilisés dans le contexte du stockage des déchets radioactifs. Les matériaux considérés sont des bétons CEM I et CEM V, l‘argilite du Callovo-Oxfordien ainsi que les interfaces argilite/mortier. Cette thèse, principalement expérimentale, a nécessité un gros effort de mise en œuvre de mesures sur une grande quantité d‘échantillons. Ainsi, ce travail a nécessité l‘utilisation de 9 cellules d‘argilite de type T1 et près de 90 cm3 de béton a été coulé, pour fabriquer plus de 250 échantillons (~124 de béton, ~121 d‘argilite et 7 interfaces). Par ailleurs, différents protocoles ont été développés. D‘une part, quatre protocoles d‘endommagement ont été développés pour créer de la micro-fissuration diffuse au sein du béton. D‘autre part, un protocole dédié a été mis en place pour fabriquer les échantillons d‘interface argilite/mortier. De nombreuses données expérimentales ont été acquises dans le cadre de ce travail, principalement sur la caractérisation de la rétention d‘eau des bétons sains, sur l‘impact de l‘endommagement sur les propriétés de rétention d‘eau et celles de transport de gaz des bétons et de l‘argilite du Callovo-Oxfordien. Cette base de données, relativement conséquante, servira à terme à alimenter les modèles macroscopique en vue du dimensionnement à l‘échelle du stockage. Les principaux résultats sont rappelés ci-dessous. Ce travail a fourni des informations sur la microstructure des bétons CEM I et CEM V de l‘étude, notamment à partir de la porosimétrie par intrusion de mercure (PIM) et des isothermes de désorption. Ces deux bétons se distinguent par des distributions de tailles de pores bien distinctes. Ils sont composés majoritairement de pores capillaires et de nano-pores, principalement ceux des hydrates. Les résultats des courbes de perte de masse, des isothermes de sorption et des pressions de percée de gaz confirment ce que l‘on sait par ailleurs sur ces deux types de bétons : le béton CEM I contient une plus grande proportion de pores capillaires tandis que le béton CEM V se distingue par sa très fine porosité, composée majoritairement de pores des hydrates. Pour ce béton (CEM V), la poursuite de la maturation dans l‘eau réduit la proportion des pores capillaires en faveur des pores des hydrates, ce qui est attribué à la poursuite des réactions d‘hydratation. Plusieurs protocoles ont été développés pour endommager de manière diffuse les bétons CEM I et CEM V de l‘étude. Les résultats montrent que l‘endommagement modifie significativement les propriétés du béton CEM I et dans une moindre mesure celle du béton CEM V. D‘une part, il diminue leurs propriétés de rétention d‘eau. Si l‘on représente ce milieu poreux comme une succession de pores cylindriques, alors ce résultat s‘explique par une augmentation de la connectivité de leur réseau poreux suite à l‘endommagement (application de la loi de Kelvin-Laplace), avec ou sans augmentation de leur porosité totale (fissuration). D‘autre part, l‘endommagement augmente les valeurs de perméabilité au gaz, à l‘état sec et à saturation donnée et diminue leur pression de percée de gaz. Ainsi, les bétons endommagés saturés en eau présentent une plus grande facilité au passage de gaz, due à l‘augmentation de la connectivité de leur réseau poreux et éventuellement à de la fissuration. 277 En revanche, l‘endommagement ne modifie pas de manière significative les perméabilités relatives au gaz des bétons CEM I et CEM V. Celles-ci dépendent uniquement du degré de saturation du matériau, pour un confinement donné. Ce manuscrit fournit un calage unique des perméabilités relatives au gaz pour chaque béton qu‘il soit endommagé ou pas, pour un confinement donné (6 et 12 MPa). Pour l‘argilite, le protocole d‘endommagement qui a été développé augmente de manière significative (x5) sa perméabilité au gaz à l‘état sec. En revanche, il s‘est révélé non reproductible en raison de l‘état initial majoritairement endommagé des échantillons de l‘étude. Il a donc été abandonné en faveur d‘une procédure de tri après les essais de perméabilité à l‘état sec. Par ailleurs, on observe une prise d‘eau continue et progressive de l‘argilite à HR=100%, qui engendre un endommagement du matériau suite à un couplage (hydromécanique) entre les phénomènes d‘hydratation et de gonflement des minéraux argileux. Il en résulte une diminution de la capacité de rétention d‘eau de l‘argilite avec l‘endommagement. Les résultats montrent une grande influence de l‘état hydrique initial sur les propriétés de rétention d‘eau et de transport de gaz de l‘argilite. Ainsi, l‘argilite fortement dé-saturée initialement présente de moins bonnes capacités de rétention d‘eau. Ceci s‘explique d‘une part par l‘hystérésis entre l‘adsorption et la désorption et d‘autre part par l‘endommagement du matériau au cours de son séchage. Avec l‘hypothèse de la loi de Kelvin-Laplace, on montre que les moins bonnes capacités de rétention d‘eau de l‘argilite sont attribuées à des tailles de pores plus grandes en adsorption (les gorges du réseau sont sèches) que les gorges pilotant le départ d‘eau en désorption (gorges saturées). Les tailles de pores et de gorges données par la relation de Kelvin-Laplace correspondent principalement à des pores interparticulaires et peut être à des fissures. Ceci est cohérent avec les résultats de pression de percée discontinue, qui montrent des valeurs plus faibles (0.3 à 1.4 MPa) que celles mesurées par d‘autres auteurs [SKOC2010b] et [DAVY2011]. Elles sont attribuées à l‘endommagement des échantillons qui facilite le passage de gaz. Par ailleurs, toujours pour l‘argilite, les résultats de perméabilité au gaz présentent des valeurs élevées ainsi qu‘une grande variabilité, de 2 voire 3 ordres de grandeur. Ceci confirme l‘état d‘endommagement d‘une grande partie de nos échantillons. En outre, ce travail montre que l‘effet Klinkenberg est négligeable pour ces échantillons endommagés. A partir des résultats de perméabilité de l‘étude et de [SKOCZ2011], on distingue trois classes de l‘argilite en fonction de son état d‘endommagement, qui dépendent fortement de leur saturation initiale :  L‘argilite peu endommagée, supposée « intacte », qui se distingue par une perméabilité effective et sèche inférieure à 1 10-18m2. Ses résultats présentent une bonne corrélation entre la perméabilité effective et le degré de saturation du matériau. Le calage des données expérimentales avec le modèle de Van Genuchten mettent en évidence des pores caractéristiques de 14nm de diamètre.  L‘argilite « micro-fissurée », présente un endommagement intermédiaire, qui est illustré par une perméabilité au gaz plus élevé d‘environ 1 ordre de grandeur que celle de l‘argilite « intacte ». Ses résultats de perméabilité effective présente une faible 278 corrélation avec le degré de saturation. Cette argilite est caractérisée, selon le modèle de Van Genuchten, par de plus grands pores/ouvertures caractéristiques, de 30nm de diamètre.  L‘argilite « très fissurée », présentant des valeurs de perméabilité au gaz très élevées (K>1 10-17m2) et une absence de corrélation entre la perméabilité effective et le degré de saturation du matériau. L‘étude du comportement hydro-mécanique des interfaces argilite/mortier constitue une originalité de ce travail. Les expérimentations menées sur trois échantillons d‘interface argilite/mortier, IA (interface assemblée), IB (coulée avec mortier non vibré) et IC (coulée avec mortier normalisé vibré) montrent que ces interfaces sont ouvertes au gaz : leurs perméabilités au gaz sont élevées (Kg > 1. 10-17 m2 à Pc=12 MPa) et présentent une grande sensibilité au confinement. L‘ouverture des interfaces est attribuée aux irrégularités de surface pour l‘interface assemblée et au retrait du mortier pour les interfaces coulées. L‘injection d‘eau dans ces échantillons confinés contribue à une fermeture mécanique de l‘interface puis à son colmatage hydraulique. Ce dernier dépend fortement de la durée de saturation en eau, de la nature de l‘interface ainsi que des propriétés de ses matériaux constitutifs. Le passage de gaz se fait par les chemins d‘accès offrant le moins de résitance à son passage. Les résultats montrent que les interfaces constituent une zone de fragilité vis-à-vis du transport de gaz. En outre, ils mettent en évidence un colmatage hydraulique/ hydromécanique et probablement chimique de ces interfaces. Les résultats de perméabilité à l‘eau mesurée sur ces trois interfaces mettent en évidence deux régimes d‘écoulement bien distincts :  D‘abord une phase où la perméabilité à l‘eau chute brutalement d‘un à plusieurs ordres de grandeur en quelques heures (2 à 3 heures pour l‘ensemble des interfaces). Ceci correspond à la saturation en eau des matériaux constitutifs de l‘interface, qui s‘accompagne d‘une fermeture de l‘interface, attribuée au gonflement de l‘argilite.  Ensuite, la cinétique de diminution de la perméabilité à l‘eau devient plus lente. Au bout d‘une vingtaine de jours, la perméabilité de ces échantillons composés devient proche de celles de ses matériaux constitutifs. La mesure du déplacement latéral de l‘échantillon montre que le colmatage de l‘interface ne résulte pas uniquement du gonflement de l‘argilite (et donc simplement d‘une fermeture mécanique de l‘interface), mais qu‘il se traduit par une réorganisation mécanique, puis hydromécanique, puis chimique, de l‘interface. Notons que la perméabilité à l‘eau n‘indique pas cette réorganisation. Afin de mieux comprendre les mécanismes responsables de la migration de gaz présentés dans ce manuscrit, on a réalisé un ensemble de simulations numériques reproduisant une expérience de percée de gaz dans l‘argilite. Les simulations se font en considérant un écoulement di-phasique continu (phase liquide et aqueuse) et deux constituants (eau/argon). Les résultats préliminaires sont encourageants. Ce travail n‘a malheureusement pas pu être 279 mené à terme dans le cadre de cette thèse. Des simulations numétique sont toujours en cours afin d‘introduire des zones de fragilité (de plus grande porosité) dans le maillage, pour permettre un passage de gaz discontinu par des chemins préférentiel. Leur poursuite est une perspective intéressante au travail expérimental réalisé dans le cadre de cette thèse. Enfin, outre les résultats expérimentaux relatifs au stockage, ce travail a permis de fournir une métrologie de l‘endommagement diffus, au travers de mesures macroscopiques. Ainsi, plusieurs indicateurs de l‘endommagement ont été testés sur les différents matériaux de l‘étude. Les résultats montrent que la propriété la plus pertinente pour voir l‘endommagement diffus est la pression de percée de gaz et ceci quel que soit le matériau considéré (béton CEM I / CEM V, argilite du Callovo-Oxfordien ou interfaces argilite/mortier). En revanche, la perméabilité à l‘eau n‘est pas un bon indicateur de l‘endommagement puisque ses valeurs pour un matériau sain ou endommagé sont proches, ne permettant pas de distinguer l‘effet de l‘endommagement de la variabilité du matériau. D‘autres propriétés du matériau, comme sa perméabilité au gaz, la courbe de rétention ou sa porosité accessible à l‘eau peuvent indiquer son état endommagé à condition de les croiser : aucune de ses propriétés n‘est capable d‘indiquer seule cet état d‘endommagement. A la suite de ces travaux de thèse, plusieurs perspectives peuvent être envisagée en vue de confirmer ces résultats ou de les compléter :  Il serait utile de caractériser la microstructure de ces matériaux par des moyens différents de ceux de l‘étude (observations MEB, DRX, adsorption d‘azote, etc.). D‘ailleurs, dans le cas des bétons, des travaux visant à caractériser la microstructure des bétons CEM I et CEM V (microscopie électronique, MEB, etc.) sont en cours [ZHANG2012].  Il serait pertinent de développer des modèles permettant de reproduire les phénomènes décrits, d‘abord pour les matériaux séparés et pour l‘interface par la suite.  Enfin, une analyse post-mortem des échantillons d‘interface serait extrémement judicieuse en vue de compléter les données acquises : observation de la microstructure, analyse minéralogique, etc. Dans un cadre plus large, il serait opportun de réaliser les investigations suivantes :  Il est intéressant de développer des protocoles de fissuration plus endommageants pour étudier l‘effet d‘un endommagement plus fort sur les courbes de perméabilité relative au gaz en fonction du degré de saturation, en particulier pour les bétons.  Pour l‘argilite, étant donné les difficultés soulevées par ce travail, découpler l‘effet d‘hystérésis entre l‘adsorption et la désorption, de l‘endommagement et de l‘anisotropie constituerait un travail original, qui améliorerait la compréhension des mécanismes physiques impliqués.  Toujours pour l‘argilite, il est pertinent de développer des moyens de caractérisation de l‘état initial de l‘argilite, étant donné les difficultés expérimentales soulevées dans le cadre de cette thèse pour faire un essai sur un échantillon sain. 280  Pour les deux matériaux, il serait intéressant de réaliser de nouvelles expériences de percée de gaz pour déterminer la nature du passage mais également l‘impact du degré de saturation en eau (temps de saturation) sur les résultats de pression de percée de gaz. 281 REFERENCES A [ABBA1999] : Abbas A., Carcasses M., Ollivier J-P., « Gas permeability of concrete in relation to its degree of saturation », Materials and Structures 32 3-8, 1999.D15 [ADSO1969] : adsorption I. t-curves for water vapor, J. Colloid Interface Sci. 29 (3), 485– 491, 1969. [AGOS2010] : Agostini F., Davy C. A., Skoczylas F., and Dubois T., Effect of microstructure and curing conditions upon the performance of a mortar added with treated sediment aggregates (tsa), Cement and Concrete Research, 40(11), pp 1609–1619, 2010 [AITC2001] : P. C. Aitcin, Bétons Haute Performance, éditions Eyrolles, 2001 [ALIG2006] : Aligizaki K, Pore structure of cement based materials, testing, interpretation and requirements , Modern Concrete Technology 12, 2006 [AMANN2012] : Amann-Hildenbrandt A., Ghanizadeh A., Krooss B. M., Transport properties of unconventional gas systems, Marine and Pertroleum Geology, 31, pp 90-99, 2012 [ANDRA2005c] : Dossier 2005 Argile. Collection Les Rapports, 2005. (ici, on se refère plus au tome consacré à l‘ « évolution phénoménologique du stockage géologique ») [ANDRA2005a] : Référentiel des matériaux d‘un stockage de déchets à haute activité et à vie longue, Tome 2, Matériaux cimentaires, Dossier 2005 [ANDRA2005b] : Dossier 2005, Référentiel des matériaux d‘un stockage de déchets à haute activité et à vie longue, Tome 2, Matériaux cimentaire, 2005 [ANDRA2009] : Rapport mi-parcours pour le Groupement de Laboratoires ―Transferts de Gaz‖, Rapport Andra C.RP.ASCM.09.0002, 242 p, 2009 [ANDRA2009a] : Référentiel géologique du site Meuse/Haute-Marne, Tom e1, Chapitre 12 : Caractéristiques et propriétés de l‘espace poreux, Rapport Andra n° C.RP.ADS.A09.0007, 2009. [ANGE2009] : Angeli M., Soldal M., Skurtveit E., Aker E., Experimental percolation of 282 B [BARO1994] : Baroghel Bouny V., Caractérisation des pâtes de ciment et des bétons : Méthodes, analyse, interprétations. Thèse de doctorat de l‘Ecole Nationale des Ponts et Chaussées, 1994. [BARO2007] : Baroghel Bouny V., Water vapour sorption experiments on hardened cementitious materials Part I: Essential tool for analysis of hygral behavior and its relation to pore structure, Cement and Concrete Research 37 414–437, 2007 [BARO2007a] : Baroghel Bouny V, Water vapour sorption experiments on hardened cement based materials, Part I: Essential tool for analysis of hygral behaviour and its relation to pore structure. Cement and Concrete Research, vol. 37, pp 414-437, 2007 [BARO2007b] : Baroghel Bouny V, Water vapour sorption experiments on hardened cement based materials, Part II: Essential tool for assessment of transport properties and for durability prediction. Cement and Concrete Research, vol. 37, pp 438-454, 2007 [BARO2007c] : Baroghel-Bouny V., Thiery M., Barberon F., Coussy O., and Villain G., Assessment of transport properties of cementitious materials : A major challenge as regards durability, Revue Européenne de génie civil, 2007 [BARON1981] : Baron J., A. Raharinaivo, Agrégation en Génie Civil, livre, ENS Cachan, France, 1980–1981. [BARON1982] : Baron J. « Les retraits de la pâte de ciment » in Le béton hydraulique : connaissance et pratique, édité par Baron J. et Sauterey R., Presses de l‘Ecole Nationale des Ponts et Chaussées, pp 485-501, 1982 [BARON1992] : Baron J., Ollivier J.P., La durabilité des bétons, Presses de l‘école nationale des Ponts et Chaussées, 1992 [BARR2008] : Barral C., Etude des transferts d‘eau et de gaz dans les géomatériaux argileux utilisés dans les couvertures des installations de stockage de déchets non dangereux (ISDND), thèse de doctorat, INSA de Lyon, 2008 [BAUE1997]Bauer-Plaindoux C., Tessier D., Ghoreychi M., Propriétés mécaniques de roches argileuses carbonatées: importance de la relation calcite-argile, Académie des Sciences/Elsevier, pp. 231–237, Paris, 1997. [BEAR1972] : Bear J., Dynamics of Fluids in Porous Media, American Elsevier Pub, Co, 1972 283 [BIRD2000] : Bird ,N.R.A.,Perrier E. et Rieu M.,The water retention function for a model of soil structure with pore and solid fractal distribution, Eur, J. Soil Sci., 51, pp. 55–63, 2000 [BOER1958] : Boer J.H., The shapes of capillaries, in: D.H. Everett, F.S. Stone (Eds.), The Structure and Properties of Porous Materials, in Proceedings of the Tenth Symposium, Colston Research Society University of Bristol, Butterworths Science Publications, London, pp. 68–94, 1958 [BOSS2001] : Paul Bossart, Peter M. Meier, Andreas Moeri, Thomas Trick, Juan-Carlos Mayor Geological and hydraulic characterisation of the excavation disturbed zone in the Opalinus Clay of the Mont Terri Rock Laboratory [BOSS2004] : Paul Bossart, Thomas Trick, Peter M. Meier, Juan-Carlos Mayor, Structural and hydrogeological characterisation of the excavation-disturbed zone in the Opalinus Clay (Mont Terri Project, Switzerland), 2004 [BOUL2008] : Boulin P., Expérimentation et Modélisation du transfert d‘hydrogène à travers des argiles de centre de stockage de déchets radioactifs, Thèse de doctorat de l‘Institut polytechnique de Grenoble, France, 2008 [BOUL2012] : Boulin P. F., Mesure de pression d‘entrée au moyen de trois méthodes de mesure non standards, Colloque Transferts 2012, Lille, 2012 [BROO1964] : Brooks, R.H., Corey, A.J. Hydraulic properties of porous media, Hydrol, Paper 3, Colo. State Univ., Fort Collins, CO, 1964 [BRUE2009] : Brue F., rôle de la température et de la composition sur le couplage ThermoHydro-mécanique des bétons, thèse de doctorat, Ecole Centrale de Lille, le 9 octobre 2009 [BRUE2011] : Brue, F., Davy, C.A, Skoczylas, F., Burlion, N., Bourbon, X., Effects of temperature on the water retention properties of two high performance concretes, Cement and Concrete Research, 2011 [BRUN1967] : Brunauer S, Mikhail R Sh, Bodor E.E, Some remarks about capillary condensation and pore structure analysis, Journal of Colloïd and Interface Science, vol. 25, n° 3, pp 883-892, 1967 [BUZZI2004] : Buzzi O., Hydromécanique du contact entre géomatériaux : expérimentation et modélisation, Application au stockage de déchets nucléaires, Thèse de doctorat, Université Josephh Fourier/ Grenobre, France, 2004. C 284 [CALLO2012] : Callovo-Oxfordien. Application au stockage de déchets radioactifs, Colloque Transfert 2012, Lille, 21 mars 2012 [CAMP2008] : Camps G., Étude des interactions chemo-mécaniques pour la simulation du cycle de vie d'un élément de stockage en béton, thèse de doctorat, Université de Toulouse, 2008 [CARE2011] : Caré S., Derkx F., Determination of relevant parameters influencing gas permeability of mortars, Costruction and Building Materials, 25, 1248-1256, 2011 [CARI2010] : Cariou S., Couplages hydro-mécaniques et transferts dans l‘argilite de Meuse/Haute Marne: approches expérimentale et multi-échelle, Thèse de doctorat, ENPC, Juillet 2010 [CARL2012] : Carlier J. P., Rougelot T., Burlion N., Evaluation comparative de modèles analytiques d‘isothermes de sorption dans les matériaux cimentaires, Colloque Transfert 2012, Lille, 2012 [CHAR1987] : Charlier R., Approche unifiée de quelques problèmes non linéaires de mécanique des milieux continus par la méthode des éléments finis. Thèse de doctorat. Université de Liège, Belgique, 1987 [CHAT2001] : Chatterji S., A discussion of the paper ̳ ̳Mercury porosimetry—an inappropriate method for measurement of pore size distributions in cement-based materials‘‘ by S. Diamond, Cem. Concr. Res. 31,1657– 1658, 2001 [CHEN1999] : Chen, J., J. W. Hopmans, et M. E. Crismer, Parameter estimation of two-fluid capillary pressure -saturation and permeability functions, Advances in Water Resources, 22, 479–493, 1999 [CHEN1999]Chen J., Hopmans J. W., Crismer M. E., Parameter estimation of two-fluid capillary pressure-saturation and permeability functions, Advances in Water Resources,22, 479–493, 1999 [CHEN2009] : Chen, J., J. W. Hopmans, et M. E. Crismer, Parameter estimation of two-fluid capillary pressure -saturation and permeability functions, Advances in Water Resources, 22, 479–493, 1999 [CHEN2011] : Chen, J., J. W. Hopmans, et M. E. Crismer, Parameter estimation of two-fluid capillary pressure -saturation and permeability functions, Advances in Water Resources, 22, 479–493, 1999 [CHIA2000] : Chiarelli A. S., Etude expérimentale et modélisation du comportement 285 mécanique de l‘argilite de l‘Est, Thèse de doctorat, Université de Lille, France, 2000 [CHIA2003] : Chiarelli A.S., Shao J.F. and Hoteit N., Modeling of elasto-plastic damage behavior of a claystone, Int Jal Plasticity, 19, 23-45, 2003 [CIIC1957] : Centre d‘Information de l‘Industrie Cimentaire Belge, Le béton et le gel. Bull N°61 à 64, Sept à Dec. 1957 [COLL2011] : Collet, F., F. Achchaq, K. Djellab, L. Marmoret, et H. Beji, Water vapor properties of two hemp wools manufactured with different treatments, Construction and Building Materials, 25, 1079–1085, 2011.
54,998
43/tel.archives-ouvertes.fr-tel-00171043-document.txt_30
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
9,310
14,090
Claude : La nièce de Mr V., elle est loin de montrer le bon exemple, au contraire, ils s'y mettent systématiquement pour embêter les gens parce que il y a eu des réflexions de faites, ça leur a pas plu. Ils s'y mettent systématiquement par bravade, par méchanceté. Ils narguent les gens et puis si on leur dit quelque chose c'est le tutoiement et la grossièreté. Systématiquement. Régine : Non ça peut pas marcher mais alors, moi je lui ai dit que de toutes les façons j'appelerai Mr V. parce qu'un jour, je lui ai dit. Elle m'a dit « laissez le tranquille, ça le regarde pas ». Je lui ai dit « si ça regarde la société quand même, bon! » Alors j'ai dit que je porterais plainte contre elle pour persécution morale et verbale, parce que ça, c'est pas possible, ça ne se fait pas. Ca, elle va y avoir droit la petite là, parce que eh, dites! Claude : Au niveau du parking devant, là, effectivement faudrait qu'il y ait une solution. Régine : Ah faut qu'il y ait une solution! Claude : On n'empêche pas les gens de se garer mais qu'ils se garent pas là systématiquement. Si y'avait un problème quelconqueMoi, je connais très bien la question, j'ai été pendant cinq ans comme gardien d'immeuble à Toulon. On avait un syndic qui ne gérait pas 4000 logements, il en gérait 20000, alors y'avait la grosse tête la dedans. Mais moi, tous les gardiens qu'on était, quand on faisait une réflexion, qu'on disait quelque chose, on était écouté. Y'avait un contrôle de fait pour savoir si y'avait un parti pris ou quelque chose et systématiquement si y'avait quelque chose qui n'allait pas, plaf! Alors que là pfff! Régine : Beh oui! Claude : Le pognon rentre, le reste on s'en fout. Régine : Voilà! Claude : Le système, moi c'est ce que je dis, y'aurait des coups de pied au cul à mettre heinLes directions ont besoin d'être secoué. Moi je comprends pas, avoir connu ce que j'ai, parce que j'avais quand même un immeuble qui avait 64 appartements et c'était un immeuble grand standing, c'était un quatre étoiles hein, alors marbre partout, c'était des propriétaires, et puis les logements là-bas, j'aime mieux vous dire qu'ils ne se donnent pas à Toulon. Régine : Y'en a même qui disent ici dans le bâtiment, je ne dirais pas le nom de la personne qui me l'a dit y'a pas longtemps, hein parce que bonElle m'a dit « Mr B. euh, j'ai l'impression qu'il est pas efficace ». J'ai dit « écoutez, Mr B., je peux vous dire que moi, il a les mains liées Mr B., il fait pas ce qu'il veut hein ; il fait pas ce qu'il veut!» Claude : Je pense qu'un gardien devrait avoir quand même plus de poids. Régine : Voilà, on devrait lui laisser un peu plus de Claude: Quand il dit quelque chose, c'est pas pris en considération. Alors que moi si je disais quelque chose, c'était plus ou moins pris en considération selon les gens mais si y'avait une récidive, systématiquement, un petit courrier et la société, toc! Régine : Je pense que je vais très certainement reprendre, d'abord pour la cour ça, il faut quey'a rien à faire heinIl faut qu'ils nous fassent quelque chose que les gens ne se garent plus comme ça toutes les nuits, par la musique, par les phares dans les volets de la chambre Moi : Et pour la sécurité de tout le monde aussi, évidemment! (Sans ironie aucune) Régine : Et pour la sécurité de tout le monde. Claude : Si y'a des urgences, faut dégager, parce que si y'a une intervention quelconque Régine : Enfinquelqu'un peut être emmené en urgence, tiens la dame qu'est au bout là, elle a été emmenée en urgence à l'hôpital, il était neuf heures ou dix heures du soir. Oh oui facile, parce que j'étais à la télé et j'entendais des râles, des plaintes et tout, oh oui, plus de neuf heures certainement. Eh ben , bon , cette cour qu'est toujours pleine , enfin tout de mêmeNous, nous , nous on s'est renseigné, ça ils ont été catégoriques hein , il faudrait une place de pompier et une place d' handicapé, et puis la place de pompier peut servir à une ambulance, à n'importe qui. Et puis enfin, les gens n'ont pas à se garer, c'est pas un parking cette cour, ils vont pas se mettre ça dans la tête. Claude : Il y a une dame dans l'immeuble qui a une fille handicapée, vraiment handicapée, elle ne peut pas marcher, elle est pratiquement paraplégique Régine : Puis elle le devient de plus en plus la pauvre Claude: C'est un gros handicap, et bien elle est obligée de se loger dans le fonds là-bas avec sa voiture puis de faire traverser sa fille, alors euh Régine : Oui parce que un jour, lui au dessus, il avait son "calypso" parce qu'il travaille chez "calypso", il avait son fourgon qu'était là et puis elle, Mme LDL, a voulu se garer et puis elle l'a sonné. Non, y'avait le quatrième qu'était là avec son camion, et 767 puis le calypso qui gênait aussi, elle a sonné au quatrième, et puis le quatrième est descendu et puis il s'est disputé avec cette dame là et puis l'autre il a mis son nez à la fenêtre de chambre, il lui a passé Claude : Il l'a traité de vieille conne et tout alors Régine : une engueulade, il l'a traité de tous les noms. Et moi, j'étais là, à la fenêtre de chambre, j'ai tout entendu. Claude : A tel point qu'il a été dire que la fille était pas plus handicapée que lui. Régine : Oui, oui. Claude: Alors elle, elle est handicapée physique mais lui c'est mental qu'il est handicapé. Régine : Ah oui, oui, vraiment, ça tourne pas rond. Moi j'vous dis que c'est des jeunes qui sont pas équilibrés du tout. Claude : Non, non, mais la SEMIVIT ils ont mis un panneau de stationnement interdit, sans autorisation, y'a pas d'arrêté, il sert à rien. Régine: Puis nous a dit la préfecture et puis la police, ce n'est pas un parking ici, c'est proprement dit, ça fait cour mais y'a l'entrée, c'est une entrée. Alors tout le monde, j'vous dit, c'est tous les nouveaux, ce sont pas les vieux ni les plus anciens dans le bâtiment, ce sont tous les nouveaux, alors moi je, on est écoeuré, on est écoeuré. C'est comme là, on a entendu aussi une personne qui a assisté à la réunion, y'a eu une petite réunion de quartier à la Bergeonnerie Ouest là, il est question Moi : Qui est organisée par les locataires? Régine: Ah beh c'est à dire que il y a un groupe de locataires et puis y'a une personne qu'est responsable. Claude : C'est le comité de quartier, ça n'a rien d'officiel. Régine : Il est question, y'a une personne qu'a demandé, pour ne pas la nommer, Mme L., qui tient l'épicerie, qu'a demandé qu'il y ait l'éclairage dans le terrain de foot là. Alors écoutez, il faut un terrain pour les jeunes, là ils s'entraînent, y'a les pompiers qui viennent et puis un groupe de jeunes qui s'entraîne, c'est très bien au lieu qu'ils traînent, mais ils font pas tous ça hélas, bon, y'a le terrain, ils s'amusent, tout, c'est très bien mais faut voir que nous, même l'été, même en ce moment, voir jusqu'à onze heures du soir et puis les entendreAlors imaginez vous si y'a la lumière. Parce que nous on a téléphoné au responsable du, mais y'a déjà quelque temps, puis il avait demandé un courrier, puis comme on a eu pas mal de pépins, on a eu deux décès et tout ce qui s'en suit, donc on a laissé mais j'ai toujours son adresse. Il m'a dit : faut écrire, on a eu le 768 même problème à Tours 02 et ils ont fait une interdiction. Parce que là ça n'est plus possible, si ils leur mettent l'éclairage, on va se les farcir jusqu'à minuit, une heure du matin. Claude : Et puis le prix que ça coûte, on va ramasser ça dans les charges. Régine : Puis faut entendre le raffut que ça fait, alors non? Moi : Parce que le terrain appartient à la SEMIVIT? Claude : Non c'est à la ville. Moi : Pourquoi, vous ferait-on payer un supplément de charge alors? Régine: Oui mais c'est demandé par les gens de là. Non mais est-ce qu'ils rêvent. Alors ceux qui demandent ça doivent pas être touchés, voyez? Claude : Beh Mme L., elle habite dans l'immeuble du bout là-bas. Régine: Ah mais ça ne va pas la gêner elle. Régine: Alors euh, j'aime pas, j'aime pas. Claude : Non, mais ce que la SEMIVIT devrait comprendre c'est qu'on ne mélange pas les jeunes avec les vieux, parce que automatiquement, beh, les jeunes c'est normal, ils ont besoin de se dépenser, ils sont bruyants Moi : Et puis ils n'ont pas les mêmes rythmes que des personnes à la retraite. Régine : Beh non, beh écoutez, eux au dessus là, ils se couchent à minuit une heure du matin presque tous les jours, parce que nous on se couche pas de bonne heure non plus, presque tous les jours pour aller au travail le lendemain. Beh, vous savez hein, ils ne doivent pas être très frais! (je rigole) Hein? Mais par contre, ah ça moi c'est ce que je dis, leur vie privée justement ne me regarde absolument pas, c'est pour ça que je veux être tranquille, quand même ici, dans la journée mais qu'on y est pas, hein? Par leurs cris et tout et toutEh bien, mais ils sont au lit le dimanche ou le samedi, le samedi jusqu'à une heure de l'après-midi et le dimanche voire toute la journée. C'est leur problème! Claude: Et on les entend rarement le jour. Régine : Oui. Claude : Ca doit être des nocturnes. Régine : Oui, si on les entend entre midi et deux, alors là j'vous dis pas le raffut hein? Claude : Alors ils ont un système de cuisine, sans doute, comme ils font maintenant, avec ces bancs et ces grosses chaises en bois blanc, alors brrrrrrr! J'voudrais voir le sol Régine : Quand on dit qu'il faut isoler! Claude : Il doit être dans un bel état hein! Régine : Alors eux, ils isolent pas leurs pieds de machins heinQu'est-ce qu'on prend sur la tête tous les jours en déjeunant. Claude : Nous, on a mis des tampons, pourtant, personne nous entend. On a mis des tampons sous nos chaises pour éviter justement que se propage du bruit autour, parce que le bruit c'est toujours déplaisant, mais non, ça ne leur viendrait pas à l'idée où alors ils sont sourds, trop habitués au bruit et ils entendent pas l'environnement hein Moi : Ou alors ils n'ont tout simplement pas envie de faire d'efforts. Régine : C'est infernal hein, l'autre en face, elle s'est un peu calmée mais ça perçait à neuf du soir et ainsi de suite 770 Claude : Oui puis l'aspirateur à onze heures et demi. Régine: Que justement Mme LDL est descendue lui dire parce que du troisième elle entendait les bruits, ça résonne. Moi : Dans ces type de bâtiment, on ne sait jamais vraiment exactement d'où viennent tous les bruits. Régine : Non non, mais elle est descendue, elle s'est adressée à la bonne porte, c'était pile là, pile! Alors, elle lui a dit « beh faut bien, elle dit « je travaille », elle dit euh : « dans la journée, je peux pas euh », elle dit « oui mais neuf heures c'est plus l'heure! ». Alors ici, malgré le bouquin de la SEMIVIT, ici, y'a plus de règles, aucune, parce que les gens tapent le dimanche, alors que normalement d'après les lois. Moi, j'ai travaillé avec des artisans et les artisans me disaient : non je peux pas travailler au delà de dix huit heures. Moi : Excusez-moi Monsieur Dame, mais il est déjà tard, je vais devoir y aller. Alors merci de m'avoir accueilli. Bon appétit et bon courage! L'entretien avec ces locataires de la Bergeonnerie ici retranscrit dans son intégralité, est édifiant. Il permet d'appréhender puisqu'il les synthétise, les différentes logiques inférant à l'inhabitabilité du logement des habitations modernes déjà évoquées. En outre, il nous donne l'opportunité ici, d'évoquer un point non abordé jusqu'à lors, à savoir la prédisposition de certains immeubles aux conflits. En effet, la prolifération des objets et la diversification des pratiques domestiques, la multiplication des temporalités sociales, le délitement de la famille et de l'autorité parentale, l'accentuation de l'individualisme exacerbent la promiscuité et la difficulté pour l'individu de se sentir chez lui, où qu'il demeure dans le parc de la S.E.M.I.V.I.T. compte tenu de la configuration matérielle déficiente commune à ses ensembles. Constituant un obstacle de taille à l'entente et à l'institution de bons rapports de voisinage, cette pénétration de l'autre, de l'inconnu dans le territoire privé de l'habitant est donc une condition certaine de l'inhabitabilité de ces logements. Or, malgré tout, compte tenu des mécanismes d'attribution des logements, il s'avère que certains immeubles sont plus propices que d'autres aux conflits. Il s'agit de ceux qui sont constitués de petits logements (T1 et T2) attribuables donc à des foyers constitués de un ou deux individus, c'est à dire essentiellement à des personnes seules ou en couple. Ce sont donc des immeubles où cohabitent à la fois une majorité de jeunes célibataires ou couples sans enfants, le plus souvent actifs demeurant ici de manière souvent provisoire, et une minorité de 771 personnes âgées, retraitées, veufs ou en couple également, s'installant ici pour du plus long terme. Aussi, ce sont dans des espaces communs que les habitants aux rythmes de vie, aux pratiques, aux habitudes, et aux valeurs ayant le moins de similitudes, voire contraires, se retrouvent à habiter ensemble. Et ce sont aussi dans ces immeubles que le renouvellement de population est le plus intense. Constituant 40 % des logements du parc, les petits logements sont l'objet de la moitié de la rotation annuelle depuis 1990 715. S'adaptant directement à la précarité de l'existence des jeunes, ces petits logements locatifs sont des espaces d'immobilité résidentielle pour les personnes âgées. Aussi, dans ces immeubles, l'enracinement des uns s'oppose au détachement des autres avec une acuité particulière. Pourtant, cette distension des trajectoires résidentielles des « jeunes » et des « personnes âgées » ne se limite pas aux immeubles sur représentés en appartements de types 1 et 2 comme Paul Painlevé, Saint François, les Fontaines et Europe. L'ensemble des immeubles sont concernés, y compris ceux constitués de logements plus grands dans lesquels résident aujourd'hui des personnes âgées, seules ou en couple occupant les appartements de type 3, 4, 5 ou 6 qui leur ont été attribués alors qu'elles étaient parents et qui cohabitent aujourd'hui avec des familles d'un, deux, trois enfants ou plus dont l'usage de leur espace privé n'a également rien à voir avec celui d'un ou d'une retraitée. Les conflits intergénérationnels que ces habitations mettent en acte révèlent ainsi de manière radicale voire caricaturale ce qui fonde l'inhabitabilité de ces espaces résidentiels. Plutôt que de lier les gens, ils les opposent, ils les confrontent. En ce sens, il nous semble, en l'état actuel de leur configuration, qu'instituer de la mixité sociale dans ces immeubles est un leurre. aux espaces centraux, qu'ils sont bien souvent peu mixtes fonctionnellement, que ces habitations sont excessivement denses, que ces espaces d'immobilité résidentielle sont volubiles, que les limites entre l'espace privé et l'espace public y sont particulièrement floues, que les logements sont perméables au dehors et non étanches entre eux qu'ils sont inhabitables. Or, si ce parc, tel qu'il est matériellement et comme il est géré 716ne constituait pas l'offre résidentielle quasi exclusive pour les urbains les moins privilégiés depuis plus de 30 ans, dans la logique psycho-sociologique moderne de construction du Moi centré sur lui-même, et dans la logique sédentaire d'identification des personnes à l'espace où elles demeurent de droit, les individus qui y vivent n'auraient pas le sentiment d'être entravé dans l'affirmation de leur être, les êtres qui y vivent ne développeraient pas de telles réactions contre la relégation voire la négation de leur Moi et de leur condition, qu'il s'agisse d'incivilités caractérisées ou de plaintes répétées, que ces dernières soient collectives ou individuelles. C'est à dire en tant que les bailleurs sociaux y attribuent les logements indépendamment de la trajectoire résidentielle prévisible des locataires et des caractéristiques générales de leurs modes de vie, sachant que le renouvellement de population pour ceux qui occupent ces logements toute leur vie contrevient à la stabilité y compris affective de leur emprise territoriale, sachant que les différences de rythmes de vie, de pratiques domestiques, selon que les locataires sont des jeunes célibataires, des familles ou des retraités exacerbent dans ces habitations les effets de la promiscuité. Je n'entends pas, par là, qu'il s'agirait nécessairement de rassembler sous la contrainte, par exemple, toutes les personnes âgées dans quelques uns de ces immeubles, mais, à supposer qu'une partie du parc ait de l'avenir, tel qu'il est aujourd'hui, c'est à dire sans réhabilitation profonde, il ne nous semble pas aberrant dans le contexte de vieillissement de population qui est le nôtre, d'envisager que compte tenu de l'isolement social de certains d'entre eux, de leur précarité matérielle, de leur difficulté à cohabiter dans ce cadre avec les jeunes et des gens de passage, la possibilité leur soit offerte d'occuper un bâtiment qui leur soit préférentiellement destiné et que la mise en place d'un service d'aide à la personne et d'animation puisse être imaginé. Sans aller nécessairement jusque-là, d'une manière générale compte tenu des données statistiques précises dont disposent les bailleurs qui prouvent que plus les logements sont petits plus ils sont quittés rapidement, que plus les locataires sont jeunes moins ils demeurent longtemps dans ces logements, il ne nous semble pas moralement inacceptable que l'attribution des logements ne s'appuie pas sur la prévisibilité des trajectoire des demandeurs et sur les usages prospectifs que selon le profil de leur foyer, ils pourraient faire de leurs logementsOpinion sans doute discutable, remettant en cause les procédures actuelles d'attribution dont la réformation n'est pas impensable, opinion allant à l'encontre du principe de la mixité sociale que l'on souhaite instituer à l'échelle de ces unités d'habitation, pourtant, 773 D) La personnalisation du chez soi : un registre d'action incompatible avec la réalité de la résidence dans le parc locatif et social. 774 leur vie durant, ces locataires, ont donc, en revanche, à la différence de ces derniers et de la grande majorité des locataires, investi leur logement en modifiant sa structure immobilière et en y ajoutant des objets nécessaires à leur confort. Non propriétaires de leur appartement, Hortense et Edouard en ont pourtant personnalisé l'équipement et l'apparence. Ils l'ont conformé à leurs normes usages et à leurs goûts, ils en ont fait un chez soi, la maison de toute leur vie. Exceptionnel! Ce cas de figure l'est compte tenu de leur ancienneté et de l'investissement financier qu'ils ont consenti. Ils ont pris à leur charge des travaux que seul, ailleurs, le propriétaire serait en droit de faire, ils ont eu l'autorisation de faire ces transformations dans la mesure où ils n'ont jamais envisagé déménager et où ils se sont engagés à libérer le logement comme il était initialement, c'est à dire à payer pour déconstruire ce qu'ils ont construit ou à réaliser des investissements au bénéfice du propriétaire! Pourtant, on le voit, les travaux qu'ont engagé ces locataires leur ont permis de rendre leur logement habitable. Or, cela n'est pas accessible à tous, loin de là. Il n'est pas question pour le locataire commun du parc locatif et social de s'engager dans des travaux dans la mesure où de fait ses ressources ne le permettent pas, dans la mesure où son étape résidentielle sera provisoire, dans la mesure où il prend le risque de devoir investir aussi lors de son départ dans la remise en son état initial et plus largement d'investir à ses propres frais conformément au droit du bailleur. Les questions de l'amélioration de la fonctionnalité, du confort, de la modification de l'ambiance perceptive et sensorielle du logement par le locataire luimême ne se poserait pas, ou avec moins d'acuité, si l'offre des bailleurs en la matière était différente. En effet, même si ces normes sont subjectives, si chacun à des aspirations et des désirs singuliers quant à ces éléments qualitatifs, il s'avère que les standards ayant prévalu à la réalisation de ces logements dans les années 60 et 70 d'une part et que ceux qui prévalent aujourd'hui à l'entretien de leur état ne font pas l'objet, en tout cas dans le cadre de la S.E.M.I.V.I.T. et de la Ville de Tours, de remaniements radicaux, ni même de moins lourds. La S.E.M.I.V.I.T., en tant que gestionnaire mandataire usant préférentiellement de l'autofinancement plutôt que de prêts aidés, non propriétaire de son parc, en tant que ce dernier n'est pas classé en Z.U.S., ni identifié par les services institutionnels comme prioritaire au regard de ses caractéristiques socio-économiques, est donc davantage amenée à penser son action en terme de pérennisation en l'état de son patrimoine plutôt que d'envisager des remaniements urbanistiques plus profonds. La réhabilitation à 7,5 millions d'euros du programme Europe en 2000-2001 est révélatrice de l'orientation et de sa capacité d'actions. Malgré la hauteur de cet investissement, l'expérience menée sur 14 % de son parc n'a pas fait l'objet d'une conception originale, remodelant structurellement le cadre architectural extérieur et intérieur des immeubles mais a consisté en une amélioration partielle 717 si ce n'est totalement formelle 718 en tout cas peu rénovatrice : l'apparence extérieure des immeubles et celle des parties communes a changé, l'isolation des ouvertures et des murs extérieures est meilleure, le confort de la salle de bain s'est bonifié, mais quid du reste! S'engager dans une opération réelle de rénovation signifie vider les immeubles de leur occupants, reloger ces derniers ou bien attendre qu'ils signifient leur départ et ne plus attribuer ces appartements le temps d'effectuer les travauxOr, au regard des logiques de court terme de la rentabilité financière et du maintien de l'offre au regard de la demande, une opération lourde de moyen terme voire de très long terme si l'on s'attaque à l'ensemble du parc, comme celles qu'il serait bon d'envisager, constitue un obstacle extrêmement lourd! Dans cette perspective, il n'est donc pas surprenant que l'action d'un bailleur, comme la S.E.M.I.V.I.T., fusse-t-elle également compétente en terme de maîtrise d'ouvrage, se limite à des travaux d'entretien courant équivalant à un budget annuel d'environ un million d'euros et à des opérations de réhabilitations ponctuelles et partielles. À l'instar de ce constat, il s'avère ainsi qu'au delà des déficiences déjà évoquées concernant l'isolation des logements, les standards de fonctionnalité et de confort qui dans les années 60 et 70 ont contribué à donné aux appartements de ce parc résidentiel leur statut d'habitation moderne et résolument réceptif au progrès, constituent 717 Les revêtements des murs, des cloisons et des sols, l'agencement des pièces, l'équipement des cuisines à l'intérieur des logements n'ont pas été modifiés, tout comme l'acoustique et l'agencement des appartements entre eux à l'intérieur de l'immeuble. 776 aujourd'hui, parce qu'ils n'ont pas fait l'objet d'une actualisation, une offre, de ce point de vue aussi, en voie d'obsolescence. Quant aux enjeux esthétiques, dans la mesure où le fonctionnalisme comme doctrine architecturale prétendait vouloir s'affranchir de toute intrusion de fioritures décoratives, il s'avère, comme si les gestionnaires actuels en étaient restés à cette idée que leurs logements devaient rester des machines à habiter, qu'ils n'ont pas plus de raison d'être intégrés à ces travaux d'entretien. Comme tout bailleur, la S.E.M.I.V.I.T. délivre à ces locataires des logements en bon état d'usage et de réparation, des équipements en bon état de fonctionnement avec le mode de faire singulier, en revanche, qu'elle fait fi de la qualité « sensible » de ce qu'elle loue! 2) Des standards de fonctionnalité obsolètes auxquels se conformer. Autant le dire toute de suite et de la même manière que nous avons pu affirmer que ces logements pouvaient être ouverts à la lumière, que ceux de la S.E.M.I.V.I.T. en particulier disposaient de vues si ce n'est unanimement remarquables en tout cas acceptables au regard de cette condition de l'habitabilité du logement, le caractère fonctionnel de ces derniers est encore reconnu et qualifié globalement positivement. La distribution des pièces, censée répondre aux besoins universels prônés par le mouvement fonctionnaliste en référence aux utopies du XIX° siècle, répondent ainsi à des critères de modernité toujours valides : à chaque pièce sa fonctionpièce de vie719 accessible depuis la cuisine pour une rationalisation optimale de l'espace d'un côté, chambres et bloc wc-salle d'eau indépendants de l'autre . Pourtant, cette rationalisation extrême de l'organisation des logements ne permet pas de donner libre cours à un usage libre de l'espace domestique, c'est à dire à des pratiques à contre-emploi de la fonction qui a été assignée à chaque pièce. Les pratiques d'ameublement sont orientées de fait par l'organisation du logement de telle sorte que la stratégie subjective de personnalisation du « chez soi » qui se met en oeuvre de manière créative est vouée au refoulementLa disposition des meubles et des objets qu'ils sont amenés à supporter est toujours déjà « toute trouvée ». Le 719 séjour- salon - salle à manger. 777 locataire ne peut jouer à agencer ses meubles et objets entre eux comme il le souhaite, à la manière du peintre qui choisit les formes et les couleurs occupant l'espace de sa toileLa personnalisation de son espace domestique est formatée, autrement dit, niée! À travers cette espace rationalisé, la circulation du locataire en son logement et l'usage domestique qu'il fait de chaque pièce sont avant même qu'il l'occupe, prévisibles et toutes tracées. Il y a ainsi, dans les habitudes parfois obsessionnelles des locataires à changer leurs meubles de place, une expression vicieuse de cette impossibilité de meubler librement son chez-soi, on cherche des alternatives pour se sentir bien pour constater à l'usage qu'on a finalement pas le choix! Sans que cette réalité là soit une condition de l'inhabitabilité absolue de ces logements, la fonctionnalité qui prévaut à leur organisation perdurant au regard des pratiques domestiques contemporaines et des normes encadrant ces dernières, il apparaît malgré tout au vue de nos entretiens, que leur fonctionnalité pourrait évoluer et progresser, que les standards d'il y a 30 ans mériteraient d'être actualisés. « Il faudrait mettre un évier à deux bacs, un seul bac dans un F1 d'accord mais dans un F4! » (Armand et Marie Paule, locataires au Grand Sapaillé), « Ce qui manque c'est un évier à deux bacs, et puis une robinetterie qui permette d'utiliser en même temps à la fois la baignoire et le lavabo » (Guy et Laetitia locataires à la Bergeonnerie), « J'en ai des choses à dire sur mon logement parce que dans les appartements, il n'y a pas de vanne d'arrêt pour les radiateurs des chambres et de la salle d'eau et les tuyauteries ne sont jamais curées et les appareils sanitaires sont usagés, donc pas étonnant qu'il y ait des fuites, sinon, il n'y a qu'un simple bac à évier et sans bouchon en plus, alors vous voyez j'en ai des choses à redire » (Bernard et Jeannette, locataires aux Rives du Cher), « L'installation électrique serait à revoir, le carrelage autour de la baignoire et du lavabo pour l'humidité des murs, un évier à double bac et puis voilà pour l'intérieur » (Lilian, locataire à Europe), « Ce qui pourrait être refait, c'est l'électricité, il faudrait plus de prises et prévoir leur mise en conformité » Michel et Nadine, locataires à la Bergeonnerie), « Le logement ça va, ça manque de prises surtout, et de prises aux normes » (Marie et Ahmed, locataires à la Bergeonnerie). Les quelques éléments d'insatisfaction récurrents que l'on relève le plus fréquemment renvoient en premier lieu à des détails fonctionnels techniques assez révélateurs de l'évolution de certaines pratiques domestiques, et en particulier celles qui nécessitent par essence un savoir faire technique poussé. La diversification des ustensiles électriques à vocation domestique comme biens de consommation 778 symboliques de la croissance des Trente Glorieuses pose le problème du nombre et de la disposition des commutateurs électriques dans ces appartements, insuffisants quantitativement et aux positions défectueuses au regard du nombre de taches et d'activités concernées par cette nécessité de fonctionnement. À l'explosion des appareils ménagers ont succédé les appareils hi-fi vidéo, de télécommunication, équipements privés dont l'homme ne peut aujourd'hui se priver. Par ailleurs, est révélé aussi, avec insistance, le problème de la taille de l'évier et plus largement les problèmes de la fonctionnalité des pièces humides, cuisine et salle de bain, espaces consubstantiels de la régénération physique, fonction centrale de l'habitat centre, du logement, que les valeurs contemporaines glorifient, voire instituent en diktat, en tant qu'elles sont liées à l'apparence et à la santé du corps. Or, un certain nombre de regrets ici exprimés sont particulièrement révélateurs de la désuétude de certains standards initiaux. « Ce qui manque () une robinetterie qui permette d'utiliser en même temps à la fois la baignoire et le lavabo », exprime ainsi le fait que l'usage partagé et simultané de la salle de bain par le couple et la famille est aujourd'hui dans les « normes sociales » étant donné l'évolution des rapports hommes femmes, vis-à-vis de la protection de leur intimité sexuée propre, vis-à-vis également des temporalités sociales induites par l'activité professionnelle et/ou sociale de chacun, évolutions sociales à l'origine du fait que la salle d'eau soit appelée à être partagée de manière simultanée par plusieurs membres de la famille. Or, cet usage contemporain est mis à mal par les standards de construction initiaux ici dénoncés. De la même manière, l'absence d'éviers à deux bacs, qui plus est pour les locataires ne possédant pas de lave-vaisselle, et la présence de baignoires inadaptées à la prise de douche compte tenu de l'étanchéité des cloisons témoignent de l'évolution des usages de cette ressource domestique qu'est l'eau. La douche est moins coûteuse en terme de temps « consacrable » aux pratiques de l'hygiène corporelle, quant à la vaisselle au contraire, en l'absence de machines dédiées à cette fin, elle renvoie à une tâche laborieuse, qui plus est si elle nécessite la mise en oeuvre de deux opérations manuelles successives (lavage puis rinçage) alors qu'un évier à deux bacs garantirait leur simultanéité! Aussi, si ces motifs de plainte relatif à l'usage de l'eau peuvent être liés avec l'habitude de considérer cette dernière comme une ressource inépuisable, c'est pourtant moins en tant que ces usagers aspirent à une utilisation à profusion de cette ressource 779 qu'il faut appréhender ces regrets 720 qu'en terme de productivité, d'utilisation rentable de l'espace et du temps domestique et quotidien, autrement dit en terme de fonctionnalité. L'inadaptation fonctionnelle des logements modernes est également partiellement mise en cause par certains locataires vis-à-vis du manque d'espace, « Les tuyaux et le vide ordures prennent tellement de place, qu'à cause de ça l'arrière cuisine n'est pas du tout fonctionnelle » (Geneviève et Henri, locataires aux Rives du Cher), «On manque de placards » (Stéphanie locataire aux Fontaines) « Les séchoirs dans les cagibis, c'est inutile, ça prend de la place pour rien () (Thierry et Anne, locataire aux Fontaines, annexe 148). L'équipement privé de l'habitant moderne est tellement divers et important quantitativement que le logement s'avère souvent trop petit au regard des espaces et équipements de rangement et de stockage. Or, ce problème s'affirme avec d'autant plus d'acuité que les espaces communs ou individuels extérieurs, (garage à vélos, caves, greniers) assignés à cette fonction d'entreposage tendent à être progressivement condamnés étant donné les usages abusifs voire illicites qui en sont faits. Conséquemment, dans ce contexte, il n'est pas rare que ce soient les balcons pour ceux qui en disposent, qui remplissent cette fonction, au grand dam des locataires qui perçoivent ces objets hétéroclites depuis chez eux, pour qui l'image de l'immeuble et/ou de l'ensemble et leur identité, en prennent un coup : « Les gens ont tendance à mettre n'importe quoi sur les balcons, ça laisse à désirer, moi, j'en prends soin, j'ai des jardinières, j'aime ça mais y'en a qui stockent tout et n'importe quoi » (Gérard et Germaine Fontaines), « Retrait des caisses, cartons, vélos des balcons pour que la Bergeo ne devienne pas zone » Raymond, locataire à la Bergeonnerie 721. Enfin, il est possible d'envisager la réorganisation intérieure des appartements à partir des attentes de leurs usagers eux-mêmes comme Thierry, locataire aux Fontaines : « En fait, dans tous les appartements, les cuisines sont en long, si j'étais le propriétaire, je casserais une partie de la cloison pour en faire un double salon ou une cuisine américaine 722 ». Cette idée de réunification des pièces communes du logement que sont la cuisine et le séjour, exprime l'idée que l'enfermement de la cuisine dans un espace étroit et isolé de ou des pièces de vie ne répond plus aux normes de convivialité auxquelles 720 qui plus est de la part de ces habitants sensibles à l'idée d'économie. 721 780 renvoient la préparation des repas par toute la famille par exemple. Cet enfermement ne répond plus non plus aux normes de l'accessibilité des denrées alimentaires à tous et pas seulement à la maîtresse de maison. Il contredit les habitudes liées à la prise des repas et remet en cause la sacralité du repas du fait de l'individualisation de cette pratique rituelle. Je mange ce que je veux, quand je peux, rapidement pour me débarrasser au plus vite de cet acte mécanique, je mange seul ou pas, et profite de ce moment de pause pour évacuer la fatigue et le stress vécu de la journée en regardant la télévision plutôt qu'en entrant en contact avec les miens, même si occasionnellement, le repas continue d'être un espace et un temps de communion interpersonnelle. La cuisine en tant qu'elle est coupée du « séjour » ou trop étroite pour constituer un coin repas fonctionnellement satisfaisant ne répond pas pour les locataires et en particulier pour les jeunes, à ces enjeux fonctionnels, de telle sorte que cette partition n'a plus pour eux de raison d'être. 3) Des normes décoratives à inventer? Au delà des standards de fonctionnalité de ces logements, qui malgré les regrets de leurs occupants portant sur les détails évoqués plus haut demeurent encore reconnus et qualifiés plutôt positivement, en revanche, et du fait même que cet enjeu soit étranger à toute doctrine fonctionnaliste, l'apparence esthétique des appartements, est quant à elle l'objet d'un fort dénigrement : « L'appart est bien conçu, les pièces bien distribuées, mais les peintures craquellent déjà, ça fait même pas un an qu'on est rentrés et qu'elles ont été refaites, ça pêche quand même! » (Noémie et Stéphane, locataires à Saint François), « Le logement ça va, il est pratique, y'a tout ce qu'il faut mais les sols et les peintures couleurs hopital c'est quand même pas chouette, je regrette de ne pas avoir le choix de mettre du papier peint » (Virginie, locataire aux Fontaines), « Y'a des choses à redire, à refaire, l'isolation, les peintures, à l'intérieur comme à l'extérieur, d'autres petites choses, c'est dommage parce que ces appartements ils sont quand même très bien faits » (Béatrice, locataire à Saint François). La logique qui justifie une période de vacance minimale à la sortie du locataire est celle d'une remise en bon état d'usage, de réparation et de fonctionnement du logement et de ses équipements. Or, compte tenu de l'ampleur des travaux à mener en 722 Cf. annexe 148. 781 terme d'isolation thermique et phonique des murs, des menuiseriesqui nécessiterait la mise en oeuvre de programmes de réhabilitation lourdes à tout point de vue, et étant donné le volume du parc lui-même, la politique de la remise en état des logements est une logique du moindre coût. Une logique paradoxale qui compte tenu des problèmes d'infiltration, du manque d'isolation, de mauvaise étanchéité des murs à proximité des points d'eau, du vieillissement général des structures sanitaires et de chauffage, des déficiences en terme d'aspiration de la vapeur dans les pièces humides impliquent la mise en oeuvre systématique de travaux superficiels, malgré tout coûteux, parant au plus urgent et ne réglant pas les problèmes à leur source. Contradiction dont Philippe, locataire aux Fontaines, malgré son désir de personnaliser son logement a conscience : « Si je pouvais, je referai les peintures et les sols mais bon d'abord faudrait tout enlever au moment de déménager, repayer la remise en état, pour que ça soit comme avant, et puis en plus avec l'isolation qu'il y a, ce serait du gâchis! ». Aussi, si les locataires entrent dans des logements a priori remis en état, l'expérience de l'occupation révèle ces problèmes de fonds : ce qui est foncièrement imputable à une défectuosité de la structure du logement passe pour une usure liée à l'occupation permettant au bailleur de demander une participation financière au locataire sortant pour la remise en état d'un logement qui, s'il avait été occupé par quelqu'un d'autre ou différemment aurait également eu besoin d'un lifting! « Au moment de partir de notre appart d'avant, on a trouvé la S.E.M.I.V.I.T. trop exigeante, on a payé presque 300 euros de travaux en particulier pour un sol in décapable qu'on nous demande de décaper. Là, on est bien mis à part les sols encore une fois, ils sont tâchés, impossible de les nettoyer complètement, les tâches sont incrustées. Et pourtant je suis maniaque, je les nettoie deux fois par jour » Brigitte, locataire aux Fontaines. Même si le mois de caution versé à son arrivée par le locataire, ne permet pas nécessairement au bailleur de couvrir les frais occasionnés sciemment par certains d'entre eux mal intentionnés, et si cette procédure garantit peut-être la viabilité comptable de la société et la pérennisation de cette offre en logements bon marchés sur le marché, il y a malgré tout dans ces procédures qui consistent à faire payer des « réparations locatives » aux locataires alors que la cause leur est extérieure, quelque chose de malhonnête! Des peintures neuves sur des supports malsains ne peuvent que mal vieillir! Malgré tout, et bien qu'ayant conscience que l'état structurel de leur logement est défectueux, les locataires aspirent à entrer dans des appartements qui soient formellement personnalisables, des logements auxquels ils puissent s'identifier ad 782 minima. Or, les standards de la S.E.M.I.V.I.T. vis-à-vis de la qualité visuelle et esthétique des logements qu'elle loue sont si ce n'est existants en tout cas fixés par cette logique de la rentabilité. L'exemple révélant cela est l'utilisation systématique des mêmes couleurs inadaptées avec lesquelles la S.E.M.I.V.I.T. repeint les logements de certains de ces immeubles, mode de faire contribuant à lui donner une réputation péjorative, les locataires l'assimilant à des habitudes de mauvais goût : « Voilà, y'a aussi les peintures, les couleurs sont à chier, excuser moi mais les teintes « S.E.M.I.V.I.T. », c'est bon, faudrait voir à ne pas racheter toutes les fins de stock dont personne ne veut, enfin j'sais pas mais y doit y avoir de ça » (Thierry et Anne Fontaines locataires aux Fontaines, annexe 148), « Les murs verts, c'est quand même spécial, allez assortir la décoration avec ces couleurs là! » (Denise, locataire à Saint François), « Dans les logements, ça fait un peu hôpital cette peinture » (Maria, locataire aux Fontaines), « Le logement ça va, à part la couleur des portes, le marron c'est pas terrible, sinon c'est confortable » Jessica, locataire aux Fontaines. Conclusion Messages à destination des bailleurs sociaux : pour une prise en considération des enjeux de l'habiter! « J'ai des problèmes dans la salle d'eau, la baignoire est faite de telle sorte que l'eau va contre le mur, la faïence ne vas pas assez haut sinon j'aime pas la couleur verte des portes, celle des murs s'écaille, y'a des dalles qui se décollent dans la cuisine et la salle de bain, voilà, y'a pas de décoration du tout, c'est un appart' à occuper, pas vraiment à habiter, comme le quartier, on y loge, on y dort mais on peut pas y faire la fête » Abdel, locataire à Saint François. « Voilà plus de dix ans que nous sommes là mais je ne me sens pas chez moi, c'est froid, j'aurai voulu tapisser mais l'autorisation de la S.E.M.I.V.I.T. est obligatoire et il faudrait enlever les papiers si un jour on devait partir alorsMon fils voudrait du bleu dans sa chambre, c'est pareil, je lui dis « peut-être »! Ces murs verts, on ne peut pas dire que ça soit chaud. Si les gens se sentaient chez eux, peut-être qu'ils resteraient plus longtemps chez eux, peut-être qu'aussi, ils respecteraient d'avantage. Je vais vous dire quelque chose, moi, j'ai honte de faire venir un médecin ici, des amis, même mes parents qui habitent Joué, c'est vous dire! » Michèle, locataire à Saint François723. 723 Cf. annexe 149. 784 III/ La publicisation de l'espace privé à travers la plainte : de la difficulté du Moi à être au monde! A) Refuser de partager et/ou de voir changer son habitat : un caprice d'enfant gâté par la vie? L'inhabitabilité de l'espace s'exprime par la plainte. Nous avons, au cours de notre argumentation, analysé dans quelle mesure la difficulté qu'avait le moi d'être satisfait de son habitat, d'être heureux là où il était présent, de se sentir bien dans son habitat se médiatisait à travers l'expression de son mécontentement, c'est à dire par la plainte. Forgé par les sociologues américains, le syndrome Nimby, « Not in by Backyard », soit, « Pas dans ma cour » qualifie les discours et pratiques d'opposition actorielles, des populations riveraines vis-à-vis de tous les phénomènes menaçant la stabilité, l'intégrité de leur territoire, de leur habitat, qu'il soit immédiat ou pas. Se manifestant avec de plus en plus d'intensité avec le développement des comités de quartier, associations de défense ou autres manifestations collectives en tous genres dénonçant la légitimité de tel projet de telle décision publique ou de tels usages non conformes à leurs valeurs, ce phénomène sociétal, qui médiatise l'enjeu existentiel du rapport de l'être humain à son habitat, participe par ailleurs, indépendamment des structures institutionnelles et idéologiques classiques du débat public que sont les partis politiques, les syndicats ou les lobby corporatifs, de l'institution d'un mode d'action politique émergeant relevant de l'affirmation du Moi et de ses intérêts personnels dans le champ de la sphère publique. Si à certains égards, ce phénomène renvoie ainsi au développement d'une conscience citoyenne, nouvelle car désidéologisée, soucieuse de l'environnement ou de la qualité de vie, répondant ainsi d'une certaine manière aux abus ayant pu être commis dans la perspective d'un développement sociétal productiviste, à d'autres égards, ces pratiques d'oppositions sont aussi le signe d'un individualisme de plus en plus poussé, amenant les individus, à titre collectif mais également individuel, à influer sur l'état du monde immédiat qui les entoure en revendiquant un certain nombre de droits personnels afin d'orienter ou d'annuler toute action entreprise par des tiers, que celle-ci relève de 785 l'intérêt général ou pas, au nom de leur attachement territorial, au nom de leur bien-être au monde. Le sentiment de possession du territoire qui résulte de l'immobilisation résidentielle débouche ainsi sur des pratiques de privatisation de l'espace commun. De plus en plus repliés du monde et fermés sur eux-mêmes dans un oekoumène de plus en plus ouvert, appelant à être de plus en plus mobiles, les riverains pour protéger légitimement leur espace privé et parfois de manière intempestive ou illicite l'espace d'échelle plus petite qui est contigu à celui-ci, le « quartier », la ville, le paysmettent en oeuvre ces stratégies d'opposition afin que leur territoire ne se transforme pas, ne se défigure pas, que leur identité ne soit pas perturbée. Or, à partir du moment donc, où un acteur, qu'il soit seul ou qu'il se ligue avec ceux qui partagent son opinion, s'engage dans une stratégie d'opposition et de plainte dont la vocation est l'obtention d'une satisfaction conforme à ses revendications, se met en oeuvre une dynamique de publicisation plus ou moins quée de ses intérêts personnels qu'induit la jouissance légitime de son territoire en tant que limité à son domicile privé ou déjà potentiellement abusive en tant qu'élargi au territoire plus vaste et commun au sein duquel se manifeste son investissement personnel et social. Si la sensibilité citoyenne pour les phénomènes liés à l'habitat et à son évolution, au nom de quoi l'institution d'une démocratie participative est envisagée, peut constituer un outil de légitimation et d'orientation de l'action publique dans la mesure où son efficacité repose sur la participation des riverains aux enquêtes publiques préalables à la mise en oeuvre des décisions d'intérêt général, le risque pour la démocratie est que précisément ces nouvelles procédures de consultation de l'opinion se substituent à celles existantes d'une part, que ces pratiques d'opposition deviennent systématiques et s'inscrivent indépendamment des agendas au sein desquels les doléances personnelles pourraient légitimement être écoutées et enregistrées. Autrement dit, que l'opinion des citoyens soit mieux prise en compte pour ces questions de politique publique locale ou intercommunale constitue un progrès, sans aucun doute, mais il ne faudrait pas que faute de ne pas respecter les rendez-vous électoraux et faute de participation aux enquêtes publiques, les riverains remettent en cause de manière systématique toue évolution fonctionnelle ou formelle affectant leur habitat sous prétexte qu'il y ait changement, sans quoi l'Action publique ne serait plus possible, sans quoi l'espace commun du vivre ensemble serait systématiquement perverti par ses logiques d'actions privatives et communautaires. La plainte du ou des riverains à l'encontre de tout ce qui met à mal son ou leur territoire d'investissement et 786 partant son ou leur identité en tant qu'elle s'y confond, repose, à partir du moment où elle est communiquée non pas dans le but ultime de se soulager mais dans la perspective d'un compromis ou d'une satisfaction, sur une stratégie de publicisation de son mécontentement, c'est à dire du mal habiter de son ego et de 'inhabitabilité de l'espace auquel celui-ci s'identifie, à savoir en premier lieu l'espace privé, dont il peut légitimement prétendre jouir paisiblement. Aussi, la publicisation de l'habitat personnel en général, de l'espace privé en particulier apparaît à partir du moment où un ou des riverains (au nom de ses/leurs usages particuliers, de ses/leurs intérêts personnels) exprime(nt) son/leur mécontentement à l'Autorité publique ou à l'un de ses représentants afin que ces derniers puissent envisager leur donner satisfaction selon la recevabilité de leur plainte à l'instar du droit et dépendamment de la pression que le ou les plaignants fait/font peser sur les pouvoirs publics ou ses institutions. Il y a ainsi à travers la multiplication de ces stratégies de plainte et pratiques d'opposition, produits de l'impossibilité de bien habiter, un phénomène manifestant une tendance lourde à la fermeture du Moi contemporain, lequel préfère occulter la réalité du monde, nier que son habitat puisse changer, se référer en permanence à ses valeurs passées autrement dit ne pas affronter l'évolution diachronique de sa propre existence dans ce monde, plutôt que de refondre chaque jour ses habitus, accepter les changements et s'ajuster à eux. En s'obstinant, en faisant une fixation sur telle ou telle chose déplaisante, le fonds narcissique du Moi se protège, s'écarte du cours des choses, s'enferme dans ses sentiments, l'être finissant par se satisfaire de ce repli sur lui, se convaincant de la légitimité de ses exigences et de l'injustice qu'il subit de telle sorte que même si la plainte alimente finalement la peine au lieu de l'épuiser et qu'elle en vient à oeuvrer dans la complaisance vers la tristesse, la dépression voire la neurasthénie, elle donne malgré tout au Moi l'impression qu'il existe. « Se plaindre de sentir des ennuis et des peines, c'est se plaindre d'être un homme et non un arbre ou un rocher » (J. Bertaut, 1552-1611, « Cantiques » ). Se plaindre de mal habiter, de mal être « bien » au monde, dans ses origines, ses conséquences et ses enjeux est ainsi révélateur de ce qui fonde l'essence fondamentale de l'habitabilité de l'espace. Or, il y a dans les sociétés prospères où l'individu est roi une propension à la plainte particulièrement vicieuse, un phénomène à travers lequel s'expriment selon nous les limites mêmes de la démocratie et du développement sociétal telle que le paradigme occidental de la modernité l'a instituéUn égoïsme et un égocentrisme à ce point développés qu'ils remettent en cause l'idée même de la paix 787 sociale. Il y a ainsi une dimension explicative au fait que les discours et pratiques d'opposition, qu'ils soient individuels ou collectifs, qu'ils soient formellement légitimes ou incivils au regard de la loi, émanent souvent de ceux qui subissent de plein fouet et parce qu'ils n'y sont pas préparés, la réalité du cours des choses. Aussi, si en soi le conflit est consubstantiel de la construction de l'intérêt général, autrement dit si la plainte, comme combat collectif, n'est pas négative pour la collectivité dans la mesure où elle est précisément un instrument du débat public nécessaire au fonctionnement de la démocratie, et je ne remets aucunement cela en cause, la multiplication des pratiques d'opposition visant non pas à faire évoluer l'intérêt général mais à préserver ses intérêts personnels tend à compliquer voire à rendre impossible l'Action Publique. En dépit du fait que le mode d'expression de la plainte des jeunes de banlieues en novembre 2005 788 est critiquable et condamnable, en même temps, elle doit aussi être appréhendée à la mesure des inégalités dont ils sont comme citoyens les victimes, et c'est bien parce qu'en théorie ils ont des droits et qu'en pratique on leur refuse où qu'ils en sont exclus que ce combat, fusse-t-il illégitime dans la forme, relève d'une lutte essentielle pour le bien de la République. B) Les conditions d'émergence de la plainte dans l'habitat social . De la propension des immeubles collectifs locatifs et sociaux modernes à être l'objet de confrontations d'usages, de controverses actorielles et donc de plaintes dans ce contexte sociétal où le mécontentement est aisé, il n'y a qu'un pas. Pourtant même si, la plainte est intrinsèquement liée à la manifestation d'une fermeture sur le Moi et un moyen de se prouver que ce celui existe bel et bien, à n'en pas douter, elle s'élabore aussi en réaction à une situation mal vécue personnellement au regard de ce que le Moi 724 Ce qui pose par ailleurs au demeurant il est vrai la question de la représentativité des intérêts de la population civile au parlement et conséquemment celle de la lucidité de ces gouvernants quant à 789 s'estime en droit d'attendre vis-à-vis de son habitat en général, du centre de celui-ci en particulier, vis-à-vis du territoire habité qui l'identifie et à partir duquel l'identité de l'individu se construit. Or, si la plainte est aussi courante chez les locataires des Grands Ensembles, c'est que s'y situent les conditions préférentielles à son émergence : espace d'immobilité résidentielle souvent contraint, promiscuité incompatible avec la recherche d'intimité ou interpénétration des coquilles privées, ouverture béante des immeubles au renouvellement de population, perméabilité des logements au dehors, hybridité des parties communes du point de vue de ses normes d'usages légitimes, personnalisation compliquée des logements par ses occupants, une qualification sociale péjorative de la part de l'opinion publique, conditions favorisant voire conditionnant le sentiment d'injustice de ses usagers et partant l'expression de la plainte, auxquelles s'ajoute 'isolement social d'une partie de ses habitants, qui dans ce contexte, ressentent le besoin singulier d'exprimer qu'ils existent ne serait ce que pour quelqu'un. Ce n'est pas innocent si durant les six mois pendant lesquels je suis allé à la rencontre de ces locataires, ce sont les personnes inactives, du trois ou du quatrième âge le plus souvent, qui ont le plus sollicité mon écoute et été reconnaissants que je prenne note de leurs dires. 790 et un attachement affectif fort, la mise en oeuvre de cette dominance territoriale ne peut qu'avorter, la territorialisation ne peut aboutir, précisément parce que le type d'habitat dans lequel demeure le Moi ne le permet pas pour les raisons avancées précédemment. De plus, dans la mesure où à cette occupation de longue durée s'ajoute une immobilité synchronique induite par l'inactivité professionnelle et l'isolement social, cette présence quotidienne que le logement monopolise exacerbe cette propension à la dominance, qui, bien qu'elle soit vaine, est ressentie comme légitime pour ces locataires du fait précisément que cet espace accapare leur quotidien et leur histoire de vie. De cette frustration propre au sédentaire à ne pas posséder un territoire à soi, ne serait ce que limité au logement privé, résultent donc des discours et des pratiques singulières d'opposition, de plainte, envers ce qui contrevient à cet investissement territorial et en premier lieu, on l'a vu, non pas seulement les réalités matérielle et de fonctionnement du parc social considéré, mais surtout ceux, qui, à travers leurs usages et leur présence, entravent l' appropriation de ces individus ici et de cette manière ancrés, à savoir, les jeunes locataires en transit. Ainsi, c'est comme mode de réaction contre une irréalisable territorialisation de l'espace de présence du Moi qu'il faut appréhender la plainte dans l'habitat d'une part, comme mode de socialisation du Moi aussi d'autre part qui en revendiquant et en récriminant trouve là, dans la forme et dans le fonds, une occasion d'exprimer socialement et parfois dans la sphère publique que dans cet espace où son emprise territoriale est niée, il existe malgré tout, envers et contre tout. C) Publicisation de l'espace privé et légitimité. Dans la mesure où c'est entre autres échelles de dominance territoriale de l'individu, celle s'exerçant sur son espace privé qui est remise en cause dans ce type d'habitations, autrement dit, parce que le droit privé de jouissance paisible du logement est, dans ce type d'habitat, loin d'être garanti, il est évident que la plainte individuelle trouve là un sol favorable à son émergence et est toujours a priori suffisamment légitime au regard de ce droit, pour que les locataires puissent justifier de leur mal habiter et revendiquer donc un droit dont ils ne disposent pas ou que partiellement. Les mécanismes de publicisation de l'espace privé se situent là et n'ont donc rien a priori d'illégitime. En effet, l'intrusion de l'espace privé sur le devant de la scène publique 791 institutionnelle, politique, juridique et/ou médiatique est consubstantielle de la plainte elle-même qui, précisément, au delà de l'expression d'un mécontentement ou d'une souffrance qui constitue son préalable, peut déboucher sur la dénonciation de troubles de jouissance de son espace privé. La publicisation de l'espace privé est donc indissociable de celle de la plainte dont l'espace privé est l'objet, de la plainte comme pratique sociale institutionnalisée garantissant à l'habitant le maintien de ses droits, de pouvoir en l'occurrence se protéger des menaces portées contre lui en son espace privé par tout tiers dont la responsabilité civile pourrait être mise en cause. Le code civil, et en particulier les articles 1383 725 et 1384 726 constituent donc les grandeurs juridiques pouvant légitimer de telles plaintes d'individus entravés dans leur liberté de jouissance, un tel recours à la justice leur donnant un statut de victime d'infraction pou prétendre à réparation. En outre, au delà de cette légitimité de fonds vis-à-vis de laquelle le rapport de l'individu à son espace privé est rendu public, devient objet de débat public, le fait de porter plainte lui-même, comme acte d'officialisation d'un mécontentement personnel, place l'espace privé dans le domaine de la sphère publique dans la mesure où les règles formelles de la plainte institutionnelle s'appuient sur la description par le plaignant du contexte précis par lequel il est devenu victime.
1,128
30/tel.archives-ouvertes.fr-tel-01547827-document.txt_3
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,276
13,579
On remarque une tendance gŽnŽrale ˆ lÕaugmentation du niveau de bruit de 3 ˆ 5 dB lorsquÕon se rapproche du lit de la rivi•re. On remarque cependant certains profils o• cette tendance sÕinflŽchit ˆ proximitŽ immŽdiate du fond, ce que nous nÕexpliquons pas pour le moment. Pour un profil vertical de bruit, jÕai reprŽsentŽ lÕŽvolution typique du spectre avec la position de lÕhydrophone (figure 5.7). Ici, la hauteur totale de la colonne dÕeau Žtait de 1,10 m et des enregistrements ont ŽtŽ rŽalisŽs tous les 10 cm environ. On remarque un comportement constant de la puissance spectrale au dessus de 2 kHz o• lÕon retrouve les m•mes valeurs de puissance ˆ 2 dB pr•s. Dans le rŽgime des basses frŽquences (< 0.1 kHz), la puissance mesurŽe semble •tre Žgalement peu dŽpendante de la position de lÕhydrophone. Cependant, entre 0.1 et 2 kHz on remarque de grands Žcarts dans la densitŽ spectrale de puissance et on note jusquÕˆ 10 dB de diffŽrence. En se rapprochant de la surface libre, une attŽnuation du signal sur une bande de frŽquence moyenne (entre 0.1 kHz et 3 kHz) a ŽtŽ observŽe sur lÕensemble des profils rŽalisŽs pendant la chasse de lÕArc 2011. Il a aussi ŽtŽ remarquŽ ˆ plusieurs reprises que pour les enregistrements rŽalisŽs au voisinage immŽdiat de la surface, lÕattŽnuation Žtait plus forte et ce sur une plus large bande de frŽquence pouvant atteindre les 10 kHz. Cette m•me expŽrience a ŽtŽ rŽalisŽe en septembre 2011 lors dÕune crue de la Drau. Trois profils verticaux de bruit ont ŽtŽ rŽalisŽs avec un point tous les 20 cm et une hauteur dÕeau totale de 170 ˆ 190 cm. Un des profils verticaux de puissance spectrale est prŽsentŽ ci-apr•s (figure 5.8). Le rŽsultat obtenu sÕest montrŽ similaire aux expŽriences faites dans lÕArc en Maurienne. Lorsque que lÕon se dŽplace vers le fond de la rivi•re, la puissance acoustique des basses frŽquences augmente alors que le niveau de bruit des hautes frŽquences reste relativement constant. Contrairement aux mesures rŽalisŽes dans lÕArc, on remarque des variations de puissance acoustique au dessous de 100 Hz en fonction de la profondeur. Ces variations ont pu •tre identifiŽes comme Žtant du bruit de mesure liŽ ˆ la vibration du c‰ble portant le saumon hydraulique. 65 figure 5.7 : Profil de bruit rŽalisŽ dans lÕArc en Maurienne en crue (h=110 cm). DensitŽ spectrale de puissance (dB re 1!Pa.Hz-0.5) calculŽe par la mŽthode de Welch (212 points, Fs=100 kHz). Chaque spectre correspond ˆ un enregistrement de 30 secondes rŽalisŽ ˆ diffŽrentes profondeurs dans la colonne dÕeau. La couleur indique la profondeur de lÕhydrophone dans la colonne dÕeau, elle est spŽcifiŽe dans la lŽgende (de 10 ˆ 76 cm). La fl•che indique le sens de lecture des enregistrements faits au niveau de la surface libre vers le lit de la rivi•re. Ainsi pour deux rivi•res diffŽrentes, le m • me comportement a pu •tre observŽ ˆ plusieurs reprises : ¥ ¥ augmentation du signal acoustique pour des frŽquences comprises entre 0.1 et 5 kHz lorsquÕon dŽplace lÕhydrophone vers le lit de la rivi•re. niveau de bruit relativement constant pour les hautes frŽquences (> 10 kHz), quel que soit la profondeur de lÕhydrophone. La premi•re de ces observations indiquerait que plus on se rapproche du lit de la rivi•re plus les bruits de charriage sont forts. Cependant, une troisi•me sŽrie de profils dans lÕArc en Maurienne ˆ faible dŽbit vient contredire cette hypoth•se. Lors de cette mesure rŽalisŽe ˆ lÕŽtiage, deux types de bruits ont ŽtŽ distinguŽs. Le bruit en dessous de 2 kHz a ŽtŽ identifiŽ comme du bruit de surface (expertise auditive et forme du spectre identique aux mesures rŽalisŽes dans le Domeynon, cf. section 3.2.4) ; le bruit au dessus de 2 kHz correspond ˆ un 66 transport de petits graviers (voir figure 5.9). On remarque ici aussi que la puissance acoustique augmente avec la profondeur quelque soit le bruit ŽcoutŽ donc en particulier pour les bruits de surface (<2 kHz, +5 dB pour 30 cm de dŽplacement), alors que lÕon sÕŽloigne cette fois ci de la source de bruit. figure 5.8 : Profil de bruit rŽalisŽ dans la Drau en crue (h=250 cm). DensitŽ spectrale de puissance (dB re 1!Pa.Hz-0.5) calculŽe par la mŽthode de Welch (212 points, Fs=100 kHz). Chaque spectre correspond ˆ un enregistrement de 30s rŽalisŽ ˆ diffŽrente hauteur dans la colonne dÕeau. La couleur indique la profondeur de lÕhydrophone dans la colonne dÕeau, elle est spŽcifiŽe dans la lŽgende (de 20 ˆ 180 cm). La fl•che indique le sens de lecture des enregistrements faits au niveau de la surface libre vers le lit de la rivi•re. ƒtant donnŽ que ces enregistrements ne sont pas simultanŽs, les rŽsultats obtenus peuvent toujours •tre remis en cause par la non stationnaritŽ des processus mis en jeu dans la rivi•re et donc des sources de bruit prŽsentes au moment de chaque mesure. Cependant, lÕexploration du champ de pression acoustique selon la verticale nous a toujours livrŽ les m•mes rŽsultats. Aucune explication liŽe ˆ des diffŽrences de sources de bruit ne permet de rŽpondre totalement ˆ ces observations, cÕest pourquoi je me suis intŽressŽ aux propriŽtŽs de propagation des ondes acoustiques dans une rivi•re. 67 figure 5.9 : Profil de bruit rŽalisŽ dans lÕArc en Maurienne ˆ lÕŽtiage (h=50 cm). DensitŽ spectrale de puissance (dB re 1!Pa.Hz-0.5) calculŽe par la mŽthode de Welch (212 points, Fs=100 kHz). Chaque spectre correspond ˆ un enregistrement de 180 secondes rŽalisŽ ˆ diffŽrentes profondeurs dans la colonne dÕeau. La couleur indique la profondeur de lÕhydrophone dans la colonne dÕeau, elle est spŽcifiŽe dans la lŽgende (de 15 ˆ 45 cm). La fl•che indique le sens de lecture des enregistrements faits au niveau de la surface libre vers le lit de la rivi•re. 5.4 Acoustique de la rivi•re Il existe tr•s peu dÕexplorations acoustiques large bande en milieu fluvial. En effet, les outils acoustiques utilisŽs dans les rivi•res sont plutTMt des Žquipements dÕacoustique active de type ADCP, utilisant des sources sonores ˆ bandes Žtroites et de lÕordre du la centaine de kHz au MHz. En revanche, il existe une bibliographie importante sur lÕŽtude des bruits dans lÕocŽan, de nombreux acousticiens/ocŽanographes utilisent le son pour dŽcrire les caractŽristiques de cet environnement. Je me suis essentiellement instruit ˆ lÕaide de deux livres. Le premier intitulŽ Ç Sounds in the sea È, dÕHerman Medwin et ses coll•gues, permet de dŽcouvrir la physique mise en jeu dans lÕŽtude de la propagation des ondes acoustiques en milieu marin. Le second livre plus mathŽmatique est le Ç Computational Ocean Acoustics È qui dŽtaille les diffŽrentes mŽthodes utilisŽes pour modŽliser la propagation des ondes acoustiques dans lÕocŽan. JÕai donc utilisŽ 68 des outils de bases dŽveloppŽs par cette communautŽ pour comprendre et dŽcrire notre environnement acoustique. Chapitre 6 GŽnŽralitŽs sur la propagation des ondes acoustiques Dans ce chapitre, on cherche ˆ comprendre et Žvaluer les processus de propagation des ondes acoustiques pouvant agir sur les mesures que lÕon fait. On a vu prŽcŽdemment que le champ de pression acoustique pouvait varier en fonction de la profondeur et il semble peu probable que ces observations soient explicables par une diffŽrence de sources de bruit. Il est donc temps dÕapprofondir nos connaissances thŽoriques sur la propagation des ondes dans notre environnement afin de pouvoir estimer la rŽpartition du champ de pression dans la rivi•re. Les lois de propagations se dŽfinissent ˆ partir de la gŽomŽtrie du milieu de propagation ŽtudiŽ et de ses conditions aux limites. La dispersion gŽomŽtrique est le rŽsultat de diffŽrents processus: rŽflexion, rŽfraction et diffraction. Ces processus peuvent mener ˆ une rŽpartition complexe du champ de pression acoustique (interfŽrences) Mais ces processus ne sont pas les seuls responsables des variations dÕintensitŽs : dÕautres mŽcanismes m•nent ˆ des pertes dÕŽnergie (attŽnuation volumique, dispersion surfacique et volumique, etc.). Ces processus sont gŽnŽralement dŽpendants des frŽquences des ondes. Cette partie vise ˆ expliquer les phŽnom•nes fondamentaux de lÕacoustique et jÕapprŽcierai lÕimportance de chaque phŽnom•ne dans notre cas dÕŽtude quÕest la rivi•re. 6.1 Equations dÕonde Une onde acoustique peut •tre dŽfinie par une perturbation du champ de pression qui se dŽplace dans un milieu Žlastique (fluide, solide) avec une cŽlŽritŽ qui dŽpend des propriŽtŽs du milieu considŽrŽ. On peut caractŽriser cette perturbation par des variations de pression autour dÕune position dÕŽquilibre (successions de surpressions et dŽpressions). On dŽfini alors la pression dÕacoustique comme Žtant une fluctuation de pression autour dÕune valeur de pression ambiante p0 : ptotale = p0 + p! "*$%&!! Il faut noter que la pression acoustique p est faible devant la pression ambiante p0. Cette pression acoustique est rŽgie par une Žquation dÕonde contenant des dŽrivŽes partielles dŽpendantes du temps et de lÕespace. LÕŽquation dÕonde dans un fluide est construite ˆ partir des Žquations de lÕhydrodynamique et de la relation adiabatique 71 entre pression et densitŽ. Sous certaines hypoth•ses (petites perturbations Ð variations lentes de la densitŽ dans lÕespace et le temps) et approximations (approximation linŽaire au premier ordre), on peut Žtablir lÕŽquation dÕonde linŽaire suivante, ici exprimŽe en termes de pression :!2 p " 1 #2 p =0 c 2 #t 2! "*$#&! O• p est la pression acoustique (Pa) et c la cŽlŽritŽ de lÕonde propagŽe (m.s-1). On remarque ici que cette Žquation ne contient pas de termes dÕattŽnuations. LorsquÕon ajoute des sources ponctuelles dans le milieu, on ajoute un terme de for•age menant ˆ lÕŽquation dÕonde inhomog•ne suivante :! 1!2 p # p " 2 2 = f X,t c!t ( ) 2! "*$'&!!! f X, t reprŽsente lÕajout du source de bruit volumique comme Žtant une fonction o• ( )! du temps t et de lÕespace X. En acoustique, il est courant de rŽduire le degrŽ de cette Žquation ˆ dŽrivŽe partielle en utilisant la transformŽe de Fourier par rapport au temps : 1 p(t ) = 2% +"! p($ )e #i$t d$ #" "*$(&!! +" p ($ ) =! p(t )e #" i$ t dt "*$)&!! On obtient alors lÕŽquation de Helmholz:!! # + k " p( X ,! ) = f X,! [ 2 2 ( ] ) ! " *$*&! O • k (m-1) est le nombre dÕonde du milieu ˆ la pulsation # (s-1): k= 72! c "*$+&!! Il existe de nombreuses techniques pour rŽsoudre cette Žquation (mŽthode des rayons, mŽthode dÕintŽgration du nombre dÕonde, mŽthode des modes normaux, etc.). Nous proposerons une mŽthode de rŽsolution au paragraphe 6.5 mais il faut dÕabord prŽciser notre probl•me. Les solutions de lÕŽquation dÕonde vont dŽpendre essentiellement de trois facteurs: ¥ des dimensions du probl•me (gŽomŽtrie), ¥ des conditions limites (surface libre et interface eau/sŽdiment) ¥ de la variation du nombre dÕonde dans lÕespace (cÕest-ˆ-dire des variations de la cŽlŽritŽ ou des frŽquences). Les sections suivantes viennent prŽciser ces diffŽrents points. Nous allons dŽfinir la gŽomŽtrie du probl•me, Žtudier nos conditions limites puis quantifier diffŽrents processus de propagation dÕonde (AttŽnuation, Absorption, Diffraction). 6.2 GŽomŽtrie du probl•me figure 6.1 : SchŽma de lÕenvironnement de propagation des ondes acoustiques. Une source ponctuelle est placŽe ˆ une profondeur zs et on cherche ˆ rŽsoudre lÕŽquation dÕonde dans lÕespace Ç Eau È. Les conditions limites sont situŽes au niveau des interfaces avec les demi-espaces Ç air È et Ç sŽdiments È et pour des distances r!$. Le probl•me est donc uniquement dŽpendant de la hauteur dÕeau et des conditions limites. LÕenvironnement de la rivi•re sera reprŽsentŽ par un espace infini dŽlimitŽ par deux plans (figure 6.1), cÕest le cas classique du guide dÕonde de Pekeris [Pekeris, 1945]. Les deux plans reprŽsentent les interfaces air/eau et eau/sŽdiment. Pour chaque milieu, on consid•rera que ses caractŽristiques sont constantes dans lÕespace et le 73 temps (Les caractŽristiques du milieu sont la cŽlŽritŽ des ondes acoustiques et la masse volumique). Les dimensions du probl•me sont celles de la rivi•re. On consid•rera des hauteurs dÕeau de lÕordre de la dizaine de cm ˆ la dizaine de m et des distances de propagation pouvant atteindre la centaine de m•tres. Les cŽlŽritŽs considŽrŽes seront celles de la bibliographie. 6.3 Conditions limites Deux types de conditions limites sont ˆ dŽfinir : ˆ chaque interface et ˆ lÕinfini. On consid•rera la non-radiation des ondes acoustiques pour une distance lÕinfini (i.e pression nulle ˆ lÕinfini). A lÕinterface entre chaque milieu, les conditions limites sont rŽgies par des discontinuitŽs en termes de cŽlŽritŽ et de masse volumique. Des lois de transmission et de rŽflexions dÕonde sont ˆ prŽcisŽes, cÕest lÕobjet de la section suivante. 6.3.1 Lois de rŽflexion On consid•re une onde incidente ˆ lÕinterface entre deux milieux. Une partie de cette onde est transmise au milieu 2 et une autre partie est rŽflŽchie dans le milieu 1 (figure 6.2). On dŽfinit les coefficients de rŽflexion R et de transmission T par le rapport des amplitudes des ondes acoustiques rŽflŽchies et transmises sur lÕamplitude de lÕonde incidente. A lÕinterface, les conditions aux limites sont dŽfinies par la continuitŽ de pression et de vitesse verticale des deux milieux: p1 = p2 vz,1 = vz,2 "*$,&!! La pression dans le milieu 1 est Žgale ˆ la somme des pressions de lÕonde incidente et de lÕonde rŽflŽchie. La pression du milieu 2 est Žgale ˆ la pression de lÕonde transmise. La continuitŽ de pression am•ne facilement ˆ la loi de Snell-Descartes : cos!1 cos! 2 = c1 c2 (6.9) On peut aussi dŽmontrer les relations suivantes pour les coefficients de rŽflexion et de transmission : 74 R= O• Z i = " i ci sin! i Z 2! Z1 Z 2 + Z1 T= 2Z 2 Z 2 + Z1! "*$%.& est lÕimpŽdance effective du milieu i. figure 6.2 : RŽflexion et transmission entre deux interfaces fluides. 6.3.2 Interface eau-air On sÕintŽresse ˆ la propriŽtŽ de transmission des ondes acoustiques depuis la rivi•re au niveau de la surface libre : soit de lÕeau vers lÕair. La densitŽ de lÕair est dÕenviron 1.2 kg m-3 et la cŽlŽritŽ des ondes acoustiques est estimŽe ˆ 340 m.s-1. Pour lÕeau de la rivi•re, on supposera une densitŽ de 1000 kg m-3 et une cŽlŽritŽ de 1500 m.s-1. LÕimpŽdance caractŽristique des milieux est calculŽe par le produit de la masse volumique et de la cŽlŽritŽ dans chacun des milieux, on obtient : Zair=408 Pa.s.m-1 et Zeau=1 500 000 Pa.s.m-1 Le calcul montre une diffŽrence de plusieurs ordres de grandeur entre les impŽdances acoustiques des deux milieux. En utilisant lÕŽquation (6.10), on comprend que le coefficient de rŽflexion de lÕeau vers lÕair vaut approximativement -1. C'est-ˆdire que la rŽflexion est totale et que le signal est dŽphasŽ de 180¡. 6.3.3 Interface eau-sŽdiment LÕimpŽdance acoustique des sŽdiments varie selon le type de sŽdiment qui constitue le fond de la rivi•re. Des valeurs caractŽristiques de cŽlŽritŽs et de masses volumiques sont proposŽes dans la table 6.1. Les fonds ocŽaniques peuvent •tre de tr•s bons rŽflecteurs, particuli•rement lorsque lÕangle dÕincidence est faible. DÕapr•s lÕŽquation (6.10), il peut y avoir une rŽflexion parfaite (|R|=1) si lÕimpŽdance effective Z2 est purement imaginaire, ce qui implique que cos%2 > 1. DÕapr•s la loi de Snell-Descartes (6.9), on a donc rŽflexion totale lorsque lÕangle dÕincidence est infŽrieur ˆ lÕangle critique suivant : &c #'c = arccos.$$ 1!! % c2 "! "*$%%&! On doit dÕabord remarquer que cet angle critique nÕexiste que si c2 > c1, ce qui est gŽnŽralement le cas (table 6.1). En fonction de lÕangle dÕincidence, on peut alors Žtablir deux cas : ¥ Pour %i < %c, la rŽflexion est considŽrŽe comme totale (|R|=1), avec un dŽphasage de lÕonde dŽpendant de lÕangle dÕincidence. ¥ Pour %i > %c, la rŽflexion est partielle (|R|<1) et il nÕy a pas de dŽphasage de lÕonde lors de la rŽflexion. porosity!b/!w cp cs "p "s bottom type (%) - (m.s-1) (m.s-1) (dB/"p) (dB/"s) clay 70 1.5 1500 <100 0.2 1.0 silt 55 1.7 1575 Cs(1) 1.0 1.5 sand 45 1.9 1650 Cs(2) 0.8 2.5 gravel 35 2.0 1800 Cs(3) 0.6 1.5 moraine 25 2.1 1950 600 0.4 1.0 limestone - 2.4 3000 1500 0.1 0.2 C s(1)= 80z0.3, Cs (2)= 110 z 0.3, Cs(3) =180z0.3 Table 6.1 : PropriŽtŽs gŽo-acoustiques de diffŽrents type de sols (issu de Hamilton [1980 ; 1987]). Cp est la vitesse de compression et Cs la vitesse de cisaillement des ondes acoustiques. Les coefficients & sont des coefficients dÕattŽnuation pour les ondes de compression et de cisaillement exprimŽs en dB/' (cf section 6.4.1). Z est la profondeur (m). 6.3.4 Guide dÕonde acoustique La surface libre et le lit de la rivi•re peuvent donc jouer le rTMle de bons rŽflecteurs, pour des angles de faible incidence tout particuli•rement. Ainsi, les ondes acoustiques vont pouvoir se rŽflŽchir ˆ plusieurs reprises au niveau des interfaces et la tranche dÕeau pourra jouer le rTMle dÕun guide dÕonde. ƒtant donnŽ le rapport entre la hauteur dÕeau (~1 m) et les plus grandes longueurs dÕondes considŽrŽes (15 m), le train dÕonde direct nÕest peut-•tre pas compl•tement arrivŽ au rŽcepteur alors que le premier rayon rŽflŽchi arrive dŽjˆ. Ce jeu de multiples rŽflexions peut •tre difficile ˆ modŽliser car donnant lieu ˆ des phŽnom•nes dÕinterfŽrences. Gr‰ce ˆ la rŽsolution de lÕŽquation dÕonde par la thŽorie des modes, nous verrons plus tard, quel est lÕimpact de ce guide dÕonde sur la rŽpartition spatiale du champ de pression. Mais tout dÕabord, je vais dŽtailler les pertes de transmissions qui ne sont pas dues ˆ la divergence gŽomŽtrique mais ˆ dÕautres processus tels que lÕabsorption, la diffraction, etc. 6.4 Pertes de transmissions 6.4.1 AttŽnuation volumique Plusieurs processus sont ˆ lÕorigine de pertes dÕŽnergie dans la transmission des ondes acoustiques. LorsquÕune onde se propage dans un milieu, une partie de son Žnergie est perdue sous forme de chaleur. Les effets dÕattŽnuations peuvent •tre exprimŽes ˆ lÕaide dÕun coefficient dÕattŽnuation & exprimŽ en dB/km tel que :!p $ 1! = 20 log # 0 & x " p %! "*$%#&! O• x est la distance de propagation de lÕonde (m ou km) et p la pression acoustique. Ces pertes de propagations sont gŽnŽralement dÕautant plus grandes que les frŽquences considŽrŽes sont grandes. Ainsi, il est courant de dŽcrire un environnement par un coefficient dÕattŽnuation en dB par longueur dÕonde (dB/'). Dans lÕeau douce, lÕattŽnuation des ondes acoustiques est majoritairement due ˆ la viscositŽ du fluide. Le coefficient dÕattŽnuation (dB km-1) est proportionnel au carrŽ de la frŽquence. La formule simplifiŽe dÕAinslie and McColm [1998] exprime ce coefficient en fonction de la tempŽrature de lÕeau : 77 2 ( w = 0.00049 f e & T D# '$ +! % 27 17 " "*$%'&!! O• &w est le coefficient dÕabsorption (dB km-1), T est la tempŽrature (¡C), D la profondeur (m) et f la frŽquence (kHz). Pour nos frŽquences dÕintŽr•t comprises entre 100 Hz et 100 kHz, les coefficients dÕattŽnuations vont de 10-5 dB km-1 ˆ 5 dB km-1. Ainsi une attŽnuation maximale de 0.5 dB serait ˆ considŽrer pour un bruit sÕŽtant propagŽ sur une centaine de m•tres. Ceci semble nŽgligeable par rapport aux pertes dÕŽnergie dues ˆ la dispersion gŽomŽtrique. LÕattŽnuation dans les sŽdiments est de plusieurs ordres de grandeur plus grande que dans lÕeau. Ces valeurs dŽpendent du type de sol considŽrŽ (table 6.1). Par exemple, avec une frŽquence de 1 kHz, lÕonde sÕattŽnue de 330 dB km-1 dans un sŽdiment type ÔgravierÕ contre 0.001 dB km-1 dans lÕeau. La propagation des ondes acoustiques dans le sŽdiment est donc largement affectŽe par lÕabsorption des ondes acoustiques. Les distances de propagations sont donc courtes pour nos frŽquences dÕintŽr•ts. MalgrŽ une structure gŽologique du lit de la rivi•re qui pourrait •tre complexe et prŽsenter des discontinuitŽs de cŽlŽritŽ, on consid•rera que les ondes acoustiques sÕattŽnuent rapidement dans le sŽdiment et quÕelles ne reviennent jamais dans la colonne dÕeau. LÕhypoth•se dÕun demi-espace Ç sŽdiment È considŽrŽ comme infini est ici justifiŽe. 6.4.2 Effet des mati•res en suspensions Lorsque les rivi•res sont en crues, les concentrations de mati•res en suspension (MES) peuvent •tre fortes. Dans une rivi•re comme lÕArc en Maurienne, il nÕest pas rare dÕobserver des pics de concentrations dŽpassant les 10 g/l au moment des chasses [Camenen, 2008 ; Antoine, 2012]. On sait que les mati•res en suspension ont un effet sur la propagation des ondes acoustiques car des mesures de cette mati•re en suspension ont ŽtŽ rŽalisŽes par acoustique active [Moore et al., 2012 ; Thorne et al., 2011]. Les signaux utilisŽs se situent dans une gamme haute de frŽquence, de 0.3 ˆ 5 MHz. MalgrŽ la diffŽrence de bande de frŽquence considŽrŽe jÕai appliquŽ les outils utilisŽs par cette technique pour Žvaluer le rTMle des MES sur la propagation des ondes acoustiques dans notre rivi•re. Les pertes de propagation par la mati•re en suspension sont expliquŽes par deux processus : la diffraction par les particules en suspension et lÕattŽnuation par la viscositŽ. Dans les deux cas, cette attŽnuation dŽpend de la taille des particules et elle est proportionnelle ˆ la concentration massique. Les propriŽtŽs de ces processus 78 sont exprimŽes ˆ lÕaide dÕun nombre dÕonde adimensionnŽ par la taille des particules, soit : k a = 2" a "*$%(&!!! O• a est le diam•tre de la particule solide (m) et'la longueur dÕonde (m). Ce nombre adimensionnŽ sera appelŽ nombre dÕonde particulaire afin dÕŽviter toute confusion avec le nombre dÕonde dŽfini dans lÕŽquation (6.7). Notre cas dÕŽtude se situe dans des conditions du rŽgime dit de Rayleigh car les longueurs dÕonde dÕintŽr•t sont bien supŽrieures aux tailles des sŽdiments mis en suspension. Les particules les plus grossi•res que lÕon pourra trouver en suspension peuvent •tre des sables [Antoine, 2012]. Si lÕon consid•re des particules de sable de diam•tre 100!m, une cŽlŽritŽ de 1500 ms-1 dans lÕeau et une gamme de frŽquence de 100 Hz ˆ 100 kHz, on obtient des nombres dÕonde particulaires variant de 4.10-5 ˆ 4.10-2 (ka <<1). A titre de comparaison, les mesures de mati•res en suspension avec ADCP sont rŽalisŽes avec des nombres dÕonde particulaires supŽrieurs ˆ 10-1 [Thorne and Hanes, 2002]. 79 Pour la composante de diffraction, on peut utiliser la formule empirique de Thorne & Meral [2008] : ! scat 3Ma 2 " = 4 #s a3 "*$%,&!!! O• : 0.29ka4!= 0.95 +1.28ka2 + 0.25ka4 "*$%-& !!! Cette formule a ŽtŽ Žtablie pour des sables et des frŽquences de lÕordre du Mhz. Pour la composante visqueuse, jÕai utilisŽ la formulation dÕUrick (1948) : * visc k ( g'1)2 = 2)s & # s $ 2 2! % s + (g + ( ) " (6.20) O• : s= 1' 9 * 1 + 4ba () ba %& g= $s $w "*$#%&! 1* 9'# = (1 + 2 ) 2ba %& b = " 2!! O• ka est le nombre dÕonde (m-1), )s et )w sont la densitŽ du sŽdiment et de lÕeau (kg.m-3), a le diam•tre de la particule (m), # la frŽquence radiale (Hz), * la viscositŽ cinŽmatique de lÕeau (m2s-1). A lÕaide des formules prŽcŽdentes, les coefficients dÕattŽnuation ont ŽtŽ calculŽs pour des sables de diam•tre 100!m ˆ une (forte!) concentration de 10 g/L et pour des frŽquences comprises entre 0.1 et 100 kHz (Table 6.2). On constate premi•rement 80 que lÕeffet des mati•res en suspension est bien supŽrieur ˆ lÕeffet dÕattŽnuation de lÕeau (constante dÕattŽnuation de trois ordres de grandeur au dessus). Pour une concentration de 10 g/l, les valeurs dÕattŽnuation calculŽes sont assez faibles (& < 6,3.10-2 dB/m) si lÕon consid•re des distances de propagation de lÕordre de 10 m. Mais pour des distances de propagation de lÕordre de 100 m, les effets des mati•res en suspension pourraient •tre observables, de lÕordre de quelques dB pour des frŽquences supŽrieures ˆ 10 kHz. FrŽquences (kHz)! scat (dB/m)! visc (dB/m) 0.1 kHz 1 kHz 10 kHz 100 kHz 3.10-16 3.10-12 3.10-8 3.10-4 1.10-3 5.10-3 2.10-2 6.10-2 Table 6.2 : Composantes dÕattŽnuation calculŽes selon (6.18) et (6.20) pour une concentration de 10 g/L, une densitŽ de sŽdiment de 2000 kg/m-3 et une viscositŽ cinŽmatique de 1,20.10-6 m2s-1. ƒtant donnŽs ces effets faibles de la mati•re en suspension sur la propagation dÕune large gamme de nos frŽquences dÕintŽr•t, cette attŽnuation sera nŽgligŽe par la suite. Il faut cependant noter que les mati•res en suspension peuvent atteindre de tr•s fortes concentrations dans des rivi•res de montagnes et que leur effet pourrait •tre notable, particuli•rement dans les hautes frŽquences. 6.4.3 Surfaces rugueuses Lorsque les ondes acoustiques interagissent avec une surface plane, on a vu quÕelles pouvaient •tre rŽflŽchies. Cette rŽflexion peut •tre caractŽrisŽe par un coefficient de rŽflexion, exprimŽ selon (6.10). Dans notre cas, ces surfaces correspondent ˆ la surface libre et au lit de la rivi•re. Ces surfaces ne sont pas parfaitement planes mais prŽsentent une certaine rugositŽ. Ces irrŽgularitŽs de surfaces vont crŽer de la diffraction lorsquÕune onde se rŽflŽchit. Ici aussi, ces effets de diffraction sont dÕautant plus forts que la longueur dÕonde est petite devant la taille des rugositŽs. Lorsque la rugositŽ est faible devant la longueur dÕonde, la formule suivante [Brekhovskikh & Lysanov, 1991] permet dÕestimer un coefficient de rŽflexion rugueux: 81 Rrough = R e "0.5! 2! "*$##&! o• $ # 2k" sin! est le param•tre de rugositŽ de Rayleigh, avec % lÕangle de rasance, + la valeur efficace des rugositŽs (m) et k=2,/' le nombre dÕonde (m-1). Le rapport entre le coefficient de rŽflexion rugueux et le coefficient de rŽflexion sans rugositŽ est calculŽ pour plusieurs frŽquences et taille de rugositŽs selon (6.22) et reprŽsentŽ sur la figure 6.3. On constate que les effets de diffraction au niveau des surfaces rugueuses sont nŽgligeables si la longueur dÕonde est supŽrieure aux rugositŽs de plus de trois ordres de grandeur, ces effets de diffraction sont importants pour les longueurs dÕonde plus faibles. figure 6.3 : Rapport entre le coefficient de rŽflexion rugueux calculŽ avec (6.22) ci-dessus et le coefficient de rŽflexion calculŽ par (6.10) en fonction de lÕangle rasance ; (a) Calculs rŽalisŽs avec une rugositŽ de 10 cm et 3 ordres de grandeur de frŽquences (0.1, 1, 10) ; (b) Calculs rŽalisŽs avec une frŽquence de 1kHz et 3 param•tres de rugositŽs explorŽs (1, 10 et 100 cm). La rug ositŽ mas que en th Ž orie la plupart des sources de bruit lointaines si lÕon consid•re la propagation rectiligne des ondes sonores ; elle limite donc la portŽe de la me sure. La diffraction permet de cap ter ces ondes ma squ Žes de mani•re indirecte, ce qui augmente donc le domaine de sensibilitŽ du capteur . On a vu que cette diffraction sÕaccompagne dÕune transformation de lÕonde sonore par un filtrage de certaines frŽquences. La taille des matŽriaux les plus grossiers du lit est le facteur caractŽristique de ce phŽnom•ne. On retiendra la nŽcessitŽ dÕun complŽment de recherche dans cette direction en mettant en relation les caractŽristiques du signal diffractŽ avec un diam•tre caractŽristique, d84 ou d95, des matŽriaux du fond. 82 6.4.4 Turbulence de lÕŽcoulement Cet aspect nÕa pas ŽtŽ abordŽ pendant ma th•se mais certaines Žtudes mettent en avant le rTMle de la turbulence sur la propagation dÕondes acoustiques, par exemple sur la modification de la cŽlŽritŽ [Field & Jarosz, 2007]. 6.5 ModŽlisation de la propagation Nous allons maintenant aborder la rŽsolution de lÕŽquation dÕonde dans notre environnement simplifiŽ. Les solutions de cette modŽlisation dŽpendent des conditions limites (rŽflexions au niveau de la surface libre et au niveau du lit de la rivi•re) et des param•tres gŽo-acoustiques des milieux de propagation considŽrŽs. Notre connaissance des propriŽtŽs acoustiques et gŽomŽtriques de nos rivi•res dÕŽtude est restreinte, je ne pourrai pas renseigner un nombre important de param•tres. CÕest pourquoi, je mÕattacherai ˆ donner une solution gŽnŽrale de notre probl•me avec une gŽomŽtrie simplifiŽe. Le cas dÕŽtude est celui du guide dÕonde de Pekeris [Pekeris, 1945] ŽvoquŽ prŽcŽdemment. Nous avons dŽcidŽ dÕutiliser un mod•le de propagation basŽe sur la rŽsolution de lÕŽquation lÕonde par mŽthode des modes normaux. Cette mŽthode est utilisŽe dans les milieux cTMtiers pour modŽliser la propagation des ondes basses frŽquences [Bonnel, 2010 ; Bonnel et al., 2011 ], les travaux citŽs ici ne sont pas exhaustifs. 6.5.1 CoordonnŽes cylindriques Les coordonnŽes cylindriques (r, z) sont utilisŽes pour rŽsoudre ce probl•me car on consid•re que notre milieu de propagation ne varie pas horizontalement (selon r). z reprŽsente la profondeur en dessous de la surface libre. La formulation de lÕŽquation de Helmholz en coordonnŽes cylindriques pour une densitŽ et une vitesse du son ne dŽpendant que de z est de la forme suivante : " (r )" (z % z s ), + 1,p ( # 2 1, +,p ( && + 2 )) ( ) + r p=% z $ ) &,z * $ (z ),z'c (z ) r,r *,r'2!r! "*$#'&! O• r est la distance de puis lÕaxe du point source, z est la profondeur, ) la densitŽ du milieu de propagation, p la pression acoustique, zs la profondeur du point source et la fonction de Dirac. La partie droite de lÕŽquation (6.23) correspond ˆ lÕinjection dÕune source sonore de puissance unitaire au point (r, zs). 6.5.2 Equation modale On cherche ˆ rŽsoudre lÕŽquation homog•ne par sŽparation des variables. On cherche une solution de la forme : p(r, z ) = " (r )! (z )! "*$#(&! En utilisant (6.23) et (6.24), on peut arriver ˆ lÕŽquation modale ci dessous : # d & 1 d( m # & ) 2!! + $$ 2' k 2 rm!!( m = 0 * (z ) $$ dz % * (z ) dz " % c (z ) "! "*$#)&!! O• ! m et! m sont un couple de solution associŽe ˆ la constante k 2 rm. 6.5.3 RŽsolution de lÕŽquation modale LÕŽquation modale est rŽsolue ˆ lÕaide de conditions limites ˆ lÕinterface et ˆ lÕinfini. Elle admet une infinitŽ de solutions associŽes aux valeurs de krm. LÕensemble de ces solutions forment une base orthonormŽe de telle mani•re que le terme de pression sÕŽcrit sous la forme suivante : " p(r, z ) =!$m (r )# m (z ) "*$#*&! m =1! La pression acoustique sÕexprime ainsi ˆ partir des produits dÕune fonction de propagation verticale horizontale! m, appelŽ fonction modale et dÕune fonction de propagation!m. Pour krmr>>5, la solution de lÕŽquation dÕonde est [Weswood, 1996] : % p(r, z ) = 2# i# / 4 1 e r "s $! (z )! (z )e m s ikrmr m "*$#+&! m =1 k rm! Les fonctions modales dÕun guide dÕonde de Pekeris ressemblent aux modes de vibrations dÕune corde, elles reprŽsentent la rŽpartition du champ de pression selon 84 la verticale. Quant ˆ la propagation horizontale, elle est dŽpendante du nombre dÕonde horizontal krm. Ce nombre dÕonde est en particulier dŽpendant de la frŽquence et des coefficients dÕattŽnuation. 6.5.4 Fonction de transfert incohŽrentes La rŽsolution de lÕŽquation de Helmholz permettra de reprŽsenter le champ de pression dans notre espace (r,z). Le champ de pression peut •tre reprŽsentŽ par les la fonction de transfert (dB) : & p# &I # FT = SL'SPL = 20log$$!! = 10 log$$!!! % p0 " % I0 " "*$#,&! O• FT est la fonction de transfert en dB, SPL (Sound Pressure Level) est le niveau de bruit re•u en dB re 1!Pa et SL (Source Level) est le niveau de bruit de la source ˆ une distance de rŽfŽrence. Le symbole @ sera utilisŽ pour indiquer la distance de rŽfŽrence. Pour une distance de rŽfŽrence d 1m, la fonction de transfert sera donc exprimŽe en dB @1m. Le champ de pression p sera reprŽsentŽ par sa fonction de transfert incohŽrente, dŽfinie telle que : " p ( r, z ) = #! m ( r )! m ( z )! "*$#-&! 1 En effet, les champs de pression calculŽs par la rŽsolution modale de lÕŽquation fournissent des schŽmas dÕinterfŽrences tr•s marquŽs. Dans la rŽalitŽ, ces effets sont attŽnuŽs par la prŽsence de surfaces rugueuses et les trajets alŽatoires. Les pertes de transmissions incohŽrentes peuvent alors •tre utilisŽes afin dÕavoir une solution plus rŽaliste du probl•me. Chapitre 7 ModŽlisation acoustique dans un guide dÕonde Cette partie contient les rŽsultats obtenus avec le code de calcul ORCA [Westwood et al., 1996]. BasŽe sur une rŽsolution numŽrique des Žquations de propagations modales. Le code de calcul permet de modŽliser les fonctions de transferts des environnements o• les propriŽtŽs gŽo-acoustiques ne dŽpendent que de z. Le but de ce chapitre est dÕŽtudier les fonctions transferts dÕonde source jusquÕˆ un rŽcepteur et dÕen Žtudier la variabilitŽ en fonction de la gŽomŽtrie et du type sŽdiment constituant le fond de la rivi•re. Ces fonctions de transferts seront ensuite utilisŽes pour interprŽter les profils de bruits prŽsentŽs dans la partie 5.3. 7.1 PrŽsentation du code ORCA ORCA est un mod•le de propagation acoustique basŽ sur la thŽorie des modes. Il a ŽtŽ dŽveloppŽ pour des environnements ocŽaniques invariants selon la distance. Il permet de rŽsoudre des probl•mes dans des milieux horizontaux stratifiŽs et sur de courtes distances de propagation car incluant les modes Žvanescents (voir ¤7.4). Il est capable de rŽsoudre lÕŽquation de propagation dÕonde dans des milieux Žlastiques (sŽdiments) pour des signaux large bande. Nous avons utilisŽ ce mod•le de propagation afin de calculer les pertes de propagation et la forme des interfŽrences dus aux multiples rŽflexions se propageant dans le guide dÕonde. Le code de calcul ORCA est adaptŽ ˆ un environnement ocŽanique et les param•tres de longueur et de frŽquence sont contraints. JÕai utilisŽ un rapport de 100 entre les profondeurs/distances du mod•le et celles de la rŽalitŽ Ç rivi•re È en conservant les propriŽtŽs de propagation des diffŽrents milieu (cŽlŽritŽs et attŽnuation). La table 7.1 prŽsente les grandeurs utilisŽes dans les modŽlisations. 0.1-10 m 10-1000 m Distances de propagations (m) 1-100 m 100-10 000 m FrŽquences dÕintŽr•ts (Hz) 0.1-100 kHz 1-1000 Hz Longueurs dÕondes dans lÕeau (m) 0.015 -15 m 1.5 Ð 1500 m Table 7.1 : Rapport entre les param•tres des environnements rŽel et modŽlisŽ. 7.2 Mod•le rŽalisŽ Une reprŽsentation de la modŽlisation est prŽsentŽe dans la figure 7.1. On modŽlise la propagation dÕune source placŽe ˆ la profondeur zs. Cette source est reprŽsentŽe par un dirac (Žnergie uniforme ˆ toutes les frŽquences). Les milieux de propagation sont invariants selon z. Plusieurs couches de sŽdiments peuvent •tre modŽlisŽes. Etant donnŽ que nous nÕavons aucune donnŽe sur la stratification du lit de la rivi•re, nous avons supposŽ que les caractŽristiques du lit Žtaient uniformes. Ceci est valable sachant que les ondes acoustiques ne pŽn•trent pas profondŽment dans le sŽdiment, lÕattŽnuation des ondes acoustiques dans le sŽdiment est effectivement forte (cf. section 6.4.1). Le champ de pression est calculŽ en tout point de lÕespace (z,r) pour plusieurs frŽquence. Le rŽsultat est prŽsentŽ ˆ lÕaide de la fonction des fonctions de.transfert, dŽfinies ci-dessous : & p (r, z ) #! FT (r, z ) = 20 log$ r $ p! ref % " "+$%&!! O• pref est la pression acoustique de rŽfŽrence ˆ 1 cm de la source sonore. 88 figure 7.1 : SchŽma reprŽsentant les diffŽrents param•tres du mod•le. Une source acoustique est placŽe ˆ une profondeur zs dans la colonne dÕeau. On Žtudie la propagation de cette onde ˆ travers diffŽrents milieux en rŽsolvant lÕŽquation dÕonde inhomog•ne par la thŽorie des modes. Les propriŽtŽs des diffŽrentes couches sont caractŽrisŽes par des cŽlŽritŽs ainsi que des coefficients dÕattŽnuations. Des pertes de transmissions sont calculŽes en un point ˆ la distance r et ˆ la profondeur z. 7.3 Type de sŽdiment Le premier jeu de modŽlisations proposŽ permet de tester diffŽrents param•tres gŽoacoustiques de la couche de sŽdiment. Quatre types de sŽdiment habituellement rencontrŽs dans une rivi•re ont ŽtŽ modŽlisŽs, ici du plus au moins dense: ¥ ¥ ¥ ¥ Un calcaire (Limestone), des graviers (Gravel), des sables (Sand), des vases (Silt). Les propriŽtŽs gŽo-acoustiques utilisŽes pour chaque type de sŽdiment sont celles de la table 6.1. La forme des fonctions de pertes de transmissions est similaire pour chaque type de sŽdiment. On retrouve une frŽquence de coupure, en dessous de laquelle les ondes ne se propagent pas et au-dessus de laquelle elles propagent de mani•re similaire. Plus le sŽdiment est dense, plus les rŽflexions sont fortes et mieux lÕŽnergie de lÕonde est conservŽe. Entre la vase et le calcaire, il peut il y avoir une diffŽrence de lÕordre de 13 dB. La couche de sŽdiment joue donc un rTMle important sur 89 le niveau de bruit re•u par lÕhydrophone. On remarque aussi que la frŽquence de coupure est plus basse lorsque la de sŽdiment est plus dense. figure 7.2 : Fonction de transfert (dB, source @ 1cm) en fonction des variations des propriŽtŽs gŽoacoustiques de la couche de sŽdiment. La source est positionnŽe au niveau du fond de la rivi•re/ La hauteur dÕeau est de 1m. Le rŽcepteur est situŽ ˆ 50 cm du lit de la rivi•re et ˆ 100 m de la source. Les sites de mesures sur lesquels jÕai travaillŽ pendant ma th•se ne prŽsentaient ni affleurement rocheux, ni envasement. CÕest pourquoi jÕai choisi de fixer les propriŽtŽs gŽo-acoustiques ˆ celle dÕune couche de sŽdiment type gravier. 7.4 Eloignement du rŽcepteur La seconde modŽlisation propose dÕŽtudier lÕeffet de la distance entre la source et le rŽcepteur. La figure 7.3 prŽsente le rŽsultat dÕune modŽlisation pour des distances de 1, 10 et 100 m entre la source et le rŽcepteur. On remarque que la forme des fonctions de transfert est diffŽrente pour chacune de ces distances. En effet, il existe des modes dits Žvanescents qui ne se propagent pas sur la distance. Les modes Žvanescents sont associŽs ˆ des nombres dÕondes horizontaux complexes et leur intensitŽ dŽcroit donc exponentiellement avec la distance (Žquation (6.27). Ainsi, il est possible de recevoir du bruit en dessous de la frŽquence de coupure mais ce sont des bruits qui proviennent du champ proche (comme par exemple la turbulence). La seconde observation se situe ˆ haute frŽquence. Plus on sÕŽloigne, plus les pertes de propagations sont grandes (pertes cylindriques) En effet, ˆ 100 m on perd presque 30 dB par rapport ˆ 1 m. 90 figure 7.3 : Fonction de transfert (dB, source @ 1cm) pour un rŽcepteur placŽ ˆ diffŽrentes distances de la source. La hauteur dÕeau totale est dÕ1m, la source est placŽe au niveau du lit de la rivi•re. Le rŽcepteur est situŽ ˆ 50 cm au-dessus du lit. 7.5 Variations de hauteur dÕeau Dans une station fixe, la profondeur dÕeau au-dessus du capteur varie quand le dŽbit de la rivi•re varie. La figure 7.4 reprŽsente la fonction de transfert simulŽe pour diffŽrentes hauteurs dÕeau de 0.5 m ˆ 4 m. On remarque un dŽplacement de la frŽquence de coupure vers les basses frŽquences lorsque la hauteur dÕeau augmente. Les composantes de basse frŽquence du bruit se propagent donc mieux lorsque la rivi•re est en crue. Ainsi m•me si la nature du bruit ne change pas au cours dÕun Žv•nement (granulomŽtrie constante), il se peut quÕelle soit per•ue comme diffŽrente au niveau du rŽcepteur car le niveau dÕeau a variŽ. 91 figure 7.4 : Fonction de transfert (dB @ 1cm) pour diffŽrentes hauteur dÕeau du guide dÕonde. La source est placŽe au niveau du lit de la rivi•re. Le rŽcepteur est fixe ˆ 20 cm au-dessus du lit de la rivi•re, ˆ une distance de 100 m de la source. 7.6 Profondeur du rŽcepteur La figure 7.5 prŽsente des fonctions de transfert pour diffŽrente profondeur du rŽcepteur. On observe que la fonction de transfert est fortement dŽpendante de la profondeur pour les plus basses frŽquences. (<10 kHz). En effet on peut observer que le fond de la rivi•re re•oit des intensitŽs sonores plus fortes que pr•s de la surface. On observe jusquÕˆ 10 dB de diffŽrence aux alentours de 1 kHz. Ce rŽsultat de la modŽlisation est comparable aux observations faites par exploration du champ de pression (cf. section 5.3). A faible frŽquence, les modes propagatifs sont peu nombreux (il existe peu de krm rŽel). 92 figure 7.5 : Fonction de transfert (dB @ 1cm) pour diffŽrentes profondeur du rŽcepteur. La source est placŽe au niveau du lit de la rivi•re. Le rŽcepteur est positionnŽ ˆ une distance de 100 m de la source. La hauteur dÕeau est de 110 cm, Chaque courbe est dŽfinie par sa profondeur (10 cm=pr•s de la surface). 7.7 Reconstitution dÕun profil de bruit Le but de cette section est de comparer la modŽlisation aux observations rŽalisŽes sur le terrain (cf. section 5.3). Nous ne pouvons pas calculer la fonction de transfert de nos observations car les sources de bruit enregistrŽes dans la rivi•re sont nombreuses et inconnues. On peut cependant comparer les signaux re•us dÕune profondeur ˆ lÕautre. Le signal enregistrŽ ˆ la plus grande profondeur a servi de rŽfŽrence, la diffŽrence avec les signaux re•us aux autres profondeurs sont prŽsentŽes dans figure 7.6. A partir des spectres observŽs, on a appliquŽ la fonction de transfert (@100m) calculŽ aux diffŽrentes profondeurs (figure 7.5): /01234567839:;"/0123<!=!>?23<&!=!"/01:!=!>?:& "+$#&! O• PSDref et PSDz sont les densitŽs spectrale de puissance de rŽfŽrence et ˆ la profondeur z. FTref et FTz sont les fonctions de transferts pour la profondeur de rŽfŽrence et ˆ la profondeur z. Les fonctions de transferts ont ŽtŽ calculŽes pour une 93 hauteur dÕeau mesurŽe ˆ 110 cm, un sŽdiment de type ÔgravierÕ (cf. table 6.1) et une distance de propagation de 100 m. figure 7.6 : DensitŽ spectrale de puissance relative ˆ la densitŽ spectrale de puissance du bruit enregistrŽ ˆ 80 cm de profondeur. La lŽgende correspond aux profondeurs du rŽcepteur. Au-dessus de la frŽquence de coupure du canal (500 Hz), les profils de bruits rŽajustŽs sont contenus dans une bande de 5 dB (figure 7.7) alors quÕils Žtaient contenus dans une bande 10 dB avant correction (figure 7.6). Les fonctions de transferts calculŽes sont donc du bon ordre de grandeur et explique la rŽ du champ de pression mesurŽ sur la verticale. 94 figure 7.7 : DensitŽ spectrale de puissance corrigŽe, relative ˆ la densitŽ spectrale de puissance corrigŽe du bruit enregistrŽ ˆ 80 cm de profondeur. La lŽgende correspond aux profondeurs du rŽcepteur. 7.8 Conclusion Une modŽlisation simplifiŽe de notre environnement a ŽtŽ faite en utilisant un mod•le de propagation basŽe sur thŽorie des modes. Ce code de calcul permet dÕexpliquer les observations faites par exploration du champ de pression acoustique. La thŽorie des modes semble •tre une approche appropriŽe pour la modŽlisation de la propagation des ondes acoustiques dans la rivi•re. Il faut cependant retenir que ces explorations de champs de pression ont ŽtŽ rŽalisŽes dans le chenal principal de lÕArc en Maurienne o• lÕapproximation du guide dÕonde de Pekeris, espace infini limitŽ par deux plans horizontaux, est acceptable au premier ordre. Une mesure rŽalisŽe depuis les berges demanderait un effort de modŽlisation supplŽmentaire en raison de la diminution de la profondeur dÕeau au voisinage de la berge. Les observations rŽalisŽes sur la rivi•re peuvent •tre expliquŽes dans une certaine mesure par la modŽlisation et on a donc dŽmontrŽ que la rivi•re se comportait comme un guide dÕonde acoustique. Ainsi lÕamplitude des signaux mesurŽs est non seulement dŽpendante des sources de bruit mais Žgalement des propriŽtŽs du chenal : 95 gŽomŽtrie, propriŽtŽs de propagation du milieu liquide et des sŽdiments du lit et enfin de la position du capteur. Certaines propriŽtŽs du lit sont constantes et peuvent •tre dŽterminŽes lors de campagnes de mesures complŽmentaires (mesures avec acoustique active). Une mesure de la hauteur dÕeau reste cependant nŽcessaire ˆ lÕinterprŽtation des mesures acoustiques rŽalisŽes. Gr‰ce ˆ cette mesure de hauteur dÕeau et des propriŽtŽs gŽoacoustiques Ç constantes È du guide dÕonde, est en effet possible de calculer la frŽquence de coupure du canal et ainsi connaitre les limites de notre mesure. LÕutilisation dÕun mod•le de propagation met aussi en Žvidence que la mesure est dŽpendante de la distance. Les niveaux de bruits re•us par lÕhydrophone vont •tre affectŽs si la rŽpartition spatiale du transport varie. Ceci implique de savoir localiser les sources de bruit pour interprŽter le signal.
45,921
2014GRENI099_8
French-Science-Pile
Open Science
Various open science
2,014
Films minces de Ta₂O₅ et (NaₓK₁₋ₓ)₂Ta₄O₁₁ (x=0.93) : structures et propriétés
None
French
Spoken
5,173
8,976
L’importance de la symétrie cristalline vis-à-vis des propriétés piézoélectriques peut être facilement comprise à partir des deux structures bidimensionnelles représentées sur la figure A.1. Pour étudier leur polarisation P, il suffit d’examiner les moments P dipolaires associés aux cellules unitaires, tracées sur chaque réseau. On remarque que pi = 0 dans les deux structures non déformées. Il en est de même dans la structure représentée en (a) et déformée par l’application d’une compression. Cela tient à ce que l’ion de référence reste le centre de symétrie de la cellule déformée. Par contre, en déformant la structure représentée en (b), l’ion de référence cesse P d’être un centre de symétrie et la cellule porte un moment dipolaire résultant, d’où pi = PR 6= 0. Des effets similaires seront obtenus dans ces deux cas de structures bidimensionnelles en appliquant une contrainte de traction ou de cisaillement ou encore une combinaison de ces deux types de contrainte. 121 Chapitre A. Bases théoriques de la piézoélectricité. 122 A.1 Tenseur de l’effet piézoélectrique Les propriétés piézoélectriques des cristaux peuvent être décrites par deux équations linéaires différentes pour définir la relation entre les grandeurs électriques et mécaniques (eqs. A.1.1 et A.1.5). Le phénomène piézoélectrique direct est la capacité de produire un champ électrique en réponse à l’application d’une contrainte mécanique. L’effet est lié à un changement de polarisation dans le volume par la contrainte appliquée au matériau. La relation entre ces deux grandeurs physiques, où la règle d’addition d’Einstein pour les indices répétés 1 est implicite peut être représentée par l’équation : Pm = dmij ij (A.1.1) (m, i, j = 1, 2, 3) où Pm est le vecteur polarisation du cristal, défini par trois composantes, tandis que svij est la contrainte 2 définie par un tenseur d’ordre 2. Conformément à la règle mathématique générale, les coefficients piézoélectriques dmij (en Coulombs par Newton 3 ) forment un tenseur d’ordre 3 (à 27 composantes). Sous forme développée, les composantes de polarisation du phénomène piézoélectrique direct peuvent s’écrire en considérant un repère à trois axes orthogonaux X1, X2 et X3 : Composante de polarisation de direction X1 P1 = d111 + d121 + d131 + d112 21 + d122 31 + d132 11 + d113 22 + d123 32 + d133 12 13 23 33 Composante de polarisation de direction X2 P2 = d211 + d221 + d231 + d212 21 + d222 31 + d232 11 + d213 22 + d223 32 + d233 12 13 (A.1.2) 23 33 Composante de polarisation de direction X3 P3 = d311 + d321 + d331 + d312 21 + d322 31 + d332 11 + d313 22 + d323 32 + d333 12 13 23 33 La contrainte provient de l’application d’une force sur une surface, en N/m2. La force est une grandeur vectorielle et donc un tenseur d’ordre 1. Mais lorsqu’on applique une force sur une surface on doit également examiner les orientations relatives entre le vecteur de force et la normale à la surface. Ceci est illustré sur la figure A.2. Le premier indice informe de la direction de l’axe le long duquel la contrainte est appliquée et le second indice indique la direction de la normale au plan du cristal exposé à cette contrainte. Dans le cas d’un matériau isotrope, si la force est appliquée normale à la surface, le résultat est 1. La convention de sommation d’Einstein est par exemple que y = 2. (i.e. le ”stress” en anglais (et ”strain” pour la déformation) 3. équivalent à des mètres par volt P3 i=1 ci x i s’écrit y = ci xi A.1 Tenseur de l’effet piézoélectrique 123 une compression du cristal dans la direction de la force. Si la direction de la force et la direction de la normale à la face sur laquelle la force agit sont parallèles, on a une contrainte de traction, et si les deux directions sont orthogonales on a une contrainte de cisaillement. Lorsqu’une force est appliquée dans une direction arbitraire sur une surface, on a un mélange des deux types de contraintes, qui peuvent être obtenues à partir des composantes du vecteur de force normale et parallèle à la face. Figure A.2 – Etat de contrainte générale dans un solide. Les points A1, A2 et A3 sont séparés uniquement pour la clarté du dessin (au lieu d’être confondus avec le point A). Dans les cristaux, le référentiel X1,X2 X3 est orienté selon les axes cristallins. Lorsque la contrainte mécanique ne provoque pas de mouvement de torsion du cristal autour d’un axe passant par son centre, la condition sur les contraintes tangentielles svij = svj i doit être remplie. Le nombre des composantes indépendantes du tenseur des contraintes est de ce fait diminué de 3. Par conséquent, pour une description complète de cet état de contrainte, il suffit de prendre en considération seulement six composantes svij différentes de zéro. La symétrie du tenseur des contraintes implique la symétrie des coefficients piézoélectrique en raison des indices ij. Dans le cas le plus général, il peut y avoir 3 composantes de polarisation Pm et 6 composantes de contrainte. Par conséquent, le nombre maximal de coefficients piézoélectriques indépendants et non-nuls est égal à 3 x 6 = 18. Considérons, par exemple, le cas de la déformation normale sv22 6= 0 et = 0 pour les autres composantes du tenseur. L’effet piézoélectrique directe peut être décrit par trois équations : P1 = d122 22 P2 = d222 22 P3 = d322 22 (A.1.3) La polarisation dans ces directions se produit uniquement lorsque les valeurs numériques des coefficients d122, d222 et d322 du cristal piézoélectrique sont différentes de zéro. Figure A.3 – (a) Orientations possibles de la polarisation dans un cristal soumis à une contrainte mécanique 22 ; (b) Orientations possibles de la polarisation dans un cristal soumis à une contrainte de cisaillement 23 = 32. Chapitre A. Bases théoriques de la piézoélectricité. 124 La figure A.3(a) illustre schématiquement les directions possibles de polarisation d’un cristal soumis à une contrainte mécanique sv22 6= 0. Considérons maintenant le cas d’une cristal soumis à une contrainte de cisaillement 23 = 32 ; les autres composantes de tenseur étant nulles. Les équations suivantes sont obtenues : P 1 = d123 P2 = d223 P3 = d323 + d132 23 + d232 23 + d332 23 32 32 32 = (d123 + d132 ) = (d223 + d232 ) = (d323 + d332 ) 23 23 (A.1.4) 23 Dans ce cas, un sens physique ne peut être attribué qu’en considérant les sommes des coefficients (d123 +d132 ), (d223 +d232 ) et (d323 +d332 ). La figure A.3(b) illustre schématiquement les orientations possibles de la polarisation dans un cristal soumis à une contrainte de cisaillement non nulle 23 = 32. L’effet piézoélectrique inverse correspond à un petit changement de la forme du solide sous une tension appliquée : ⌘ij = dmij Em (m, i, j = 1, 2, 3) (A.1.5) où ⌘ij sont les composantes du tenseur des déformations, Em le champ électrique et dmij les coefficients piézoélectriques. La détermination des composantes tensorielles de déformation est illustré sur la figure A.4. Les composantes contenant les mêmes indices déterminent les déformations du cristal dans les directions des axes du système de référence. Les composantes contenant des indices mixtes définissent les modes propres de cisaillement, qui ne comprennent pas de rotations. Dans ce cas, ⌘ij = ⌘ji, ce qui implique que le tenseur ⌘ij est symétrique. Figure A.4 – Notations des déformations dans les directions des axes du système de référence et des modes propres de cisaillement. La forme développée de l’effet piézoélectrique inverse peut s’écrire : Déformation directe : dans la direction X1 dans la direction X2 dans la direction X3 ⌘11 = d111 E1 + d211 E2 + d311 E3 ⌘22 = d122 E1 + d 222 E2 + d322 E3 ⌘ 33 = d133 E1 + d233 E2 + d333 E3 Déformation de cisa illement dans la direction X1 dans la direction X2 dans la direction X 3 ⌘ 23 = ⌘32 = d123 E1 + d223 E2 + d323 E3 ⌘13 = ⌘31 = d113 E1 + d213 E2 + d313 E3 ⌘12 = ⌘21 = d112 E1 + d212 E2 + d312 E3 A .1 Tenseur de l’effet piézoélectrique A.1.1 125 Notation matricielle. Un tenseur général d’ordre 2, utilisé pour décrire la force de contrainte ij et la déformation ⌘ij, a 32 = 9 composantes indépendantes. Lorsque les composantes sont écrites en entier, elles forment un tableau carré où le premier indice se réfère à la ligne et le second à la colonne. Le fait que ce tenseur d’ordre 2 soit symétrique en i et j permet d’utiliser une notation plus concise connu sous le nom la notation matricielle (ou notation de Voigt). 11 12 13 21 22 23 31 32 33 1 = 1 2 6 1 2 5 1 2 6 2 1 2 4 1 2 5 1 2 4 ⌘11 ⌘12 ⌘13 ⌘21 ⌘22 ⌘23 ⌘31 ⌘32 ⌘33 3 = ⌘1 1 ⌘ 2 6 1 ⌘ 2 5 1 ⌘ 2 6 ⌘2 1 ⌘ 2 4 1 ⌘ 2 5 1 ⌘ 2 4 ⌘3 Jusqu’à présent toutes les équations de l’effet piézoélectrique ont été utilisées avec des notations complètes des tenseurs afin d’afficher leurs vrais structures. Toutefois, dans la pratique, il est avantageux de réduire le nombre des indices. Cela se fait en définissant de nouveaux symboles d11, d12, etc... Avec ces nouveaux symboles les coefficients piézoélectriques peuvent être réécrits : d 11 = d111 d21 = d211 d31 = d311 1 d 2 14 1 d 2 24 1 d 2 34 = d123 = d132 = d223 = d232 = d323 = d332 d12 = d122 d22 = d222 d32 = d 322 1 d 2 15 1 d 2 25 1 d 2 35 = d 113 = d 131 = d213 = d231 = d313 = d331 d13 = d133 d23 = d233 d33 = d333 1 d 2 16 1 d 2 26 1 d 2 36 = d 112 = d 121 = d 212 = d 221 = d312 = d 321 Dans cette notation matricielle, les équations décrivant les effets piézoélectriques directe et inverse s’écrivent : Pi = dij j ⌘j = dij Ei (i = 1, 2, 3; j = 1,...6) (A.1.6) Le schéma suivant résume les équations piézoélectriques dans la notation matricielle. La lecture en horizontal par rangées donne l’effet directe et la lecture en vertical par colonnes donne l’effet inverse. Chapitre A . Bases théoriques de la piézoélectricité. 126 A.2 Symétrie du cristal et piézoélectricité La symétrie cristallographique des matériaux joue un rôle essentiel dans les phénomènes piézoélectriques. Selon la définition de l’effet piézoélectrique, toutes les composantes du tenseur piézoélectrique doivent disparaitre dans les cristaux possédant un centre de symétrie. Figure A.5 – Hiérarchie des symétries pour la piézoélectricité. Parmi les 32 groupes ponctuels cristallographiques, 21 sont non-centrosymétriques (figure A.5). La piézoélectricité peut exister dans 20 des ces 21 groupes ponctuels. La classe cubique 432 est exclue car les polarisations formées le long des axes polaires <111> s’annulent. L’absence de centre de symétrie représente une condition nécessaire mais non suffisante pour qu’un matériau soit piézoélectrique. La liste des groupes ponctuels qui permettent la piézoélectricité est rapportée dans le tableau ci-dessous. Tableau des groupes ponctuels système cubique hexagonal trigonal tetragonal orthorhombique monoclinique triclinique éléments de symétrie centre, axe, plan centre, axe, plan centre, axe, plan centre, axe, plan centre, axe, plan centre, axe, plan centre non-centrosym. 23, 43m, 432 6, 6, 622, 6mm, 6m2 3, 32, 3m 4, 4, 422, 4mm, 42m 222, mm2 2, m 1 centrosym. m3, m3m 6/m, 6/mmm 3, 3m 4/m, 4/mmm mmm 2/m 1 Le nombre N de composantes indépendantes d’un tenseur d’ordre 3 peut être au maximum de 33 = 27. Cependant, le tenseur piézoélectrique ne peut avoir au maximum que 18 composantes indépendants parce que dijk = djik en raison de la symétrie des tenseurs de contrainte et de déformation. Le cas N =18 correspond à des cristaux tricliniques de la classe 1. Dans les cristaux de symétrie plus élevée, le nombre N se réduit. Ce fait découle du principe de la Neumann : ”Les éléments de symétrie de toute propriété physique d’un cristal doit comprendre les éléments de symétrie du groupe ponctuel de ce cristal.” Le degré de symétrie des cristaux peut réduire de manière significative le nombre de coefficients piézoélectriques indépendants. Par exemple, examinons l’effet du centre de A.2 Symétrie du cristal et piézoélectricité 127 symétrie. Supposons que l’on mette sous contrainte un cristal qui possède un centre de symétrie. L’ensemble du système (cristal plus contrainte) est transformée par rapport à son centre de symétrie. La contrainte demeure inchangée parce qu’elle est symétrique par rapport au centre de symétrie, de même que le cristal ne change pas, tandis que la direction où une polarisation pourrait apparaitre s’inverse. On a donc le même cristal, avec la même contrainte, mais une polarisation opposée. Cette situation n’est possible que si la polarisation est égal à zéro. Par conséquent, un cristal qui a un centre de symétrie, ne peut pas avoir de propriétés piézoélectriques. En transformant le système de coordonnées du tenseur piézoélectrique par rapport à un élément de symétrie, il est facile de montrer comment les modules piézoélectriques disparaissent pour différentes symétries. Considérons deux cas simples : La matrice de transformation peut s’écrire (a) Centre de Symétrie aij = ij = ( 1 0 ij i=j i 6= j Après transformation, les coefficients piézoélectriques sont égaux à 0 dijk = ail ajm akn dlmn = il jm kn dlmn = dijk Mais comme le cristal possède un centre de symétrie 0 dijk = dijk donc dijk = 0 (b) Axe d’ordre 2 Supposons un axe d’ordre 2 parallèle à l’axe X3, la transformation conduit aux expressions suivantes x1→-x1, x2→-x2, x3→x3 Chaque coefficient piézoélectrique est transformé selon ces équations. Si le signe des coefficients change, le coefficient doit être nul, s’il ne change pas, le coefficient n’est pas nul. Ainsi, par exemple, d133 → d133 implique que d133 = 0, mais d123 → d123 implique que d123 n’est pas nul. Il est facile de montrer que seuls les coefficients qui ont un ou trois indices ”3” restent. Ainsi, les modules dijk non-nuls sont ceux encadrés par des crochets ci-dessous d111 d112 [d113 ] d 122 [d 123 ] d133 d 211 d 212 [d 213 ] d222 [d223 ] d233 [d311 ] [d312 ] [d322 ] d313 d323 [d333 ] Dans la notation matricielle (avec deux indices), les modules correspondants sont 0 1 0 0 0 d14 d15 0 @ 0 0 0 d24 d25 0 A d31 d32 d33 0 0 d36 128 Chapitre A. Base s thé oriques de la piézoélectricité. Sur la figure A.6, une liste des matrices 6 ⇥ 3 pour les différentes classes cristallographiques liées à la piézoélectricité [112] est présentée. Figure A.6 – Coefficients piézoélectriques pour les 20 classes de symétries liées à la piézoélectricité (d’après Ney [112]). N.B. Le résultat pour classe cubique 23 est identique à celui de la classe cubique 43m. D’après la légende à la fin du tableau, les petits points noirs correspondent à des coefficients nuls. Les points rouges indiquent des coefficients non-nuls. Les lignes reliant des points rouges indiquent que les valeurs numériques sont les mêmes. Les lignes reliant un point rouge à un cercle en trait fin signifient le passage à une valeur opposée et les lignes reliant un point rouge à deux cercles concentriques signifient le passage à une valeur double de signe opposé. D’après ce tableau on peut par exemple donner les différents coefficients piézoélectriques à déterminer pour la structure trigonale (Na1 x Kx )2 Ta4 O11 en admettant un groupe d’espace R3c. Son groupe ponctuel est 3m et la matrice correspondante est : 0 1 0 0 0 0 d15 [d16 = 2d21 ] @ d21 [d22 = d21 ] 0 [d24 = d15 ] 0 A 0 d31 [d32 = d31 ] d33 0 0 0 Il y a donc 4 valeurs de coefficients à déterminer. Si le groupe d’espace est R3, le groupe ponctuel est alors 3 et la matrice correspondante est : 0 1 d11 [d12 = d11 ] 0 d14 d15 [d16 = 2d22 ] @ d21 [d22 = d21 ] 0 [d24 = d15 ] [d25 = d14 ] [d26 = 2d12 ] A d31 [d32 = d31 ] d33 0 0 0 soit 6 valeurs de coefficients à déterminer. A.3 Description thermodynamique de la piézoélectricité A.3 129 Description thermodynamique de la pi ézoélectri cité Dans une approche thermodynamique, la piézoélectricité est un cas particulier de phénomène de couplage : le couplage entre les phénomènes élastiques et diélectriques d’un système. Selon les postulats de thermodynamique, on peut caractériser entièrement le système à l’équilibre par la donnée de variables extensives. Il s’agit ici de l’entropie, de la déformation et de la polarisation du système. Ces trois grandeurs sont les variables d’un potentiel thermodynamique dont les caractéristiques du système se déduisent par dérivations successives. Les propriétés des cristaux piézoélectriques à température fixe peuvent être représentées par le diagramme représenté sur la figure A.7. Figure A.7 – Diagramme pour la description thermodynamique des propriétés diélectrique, élastique et piézoélectrique des cristaux. Les quantités physiques figurant sur le côté droit de ce schéma décrivent les propriétés élastiques d’un cristal, tandis que sur le côté gauche on a les propriétés diélectriques. Un changement de déformation du cristal provoque, selon la loi de Hook, un changement de contrainte dsvij = cijkl d⌘kl, où cijkl représente une composante du tenseur d’élasticité. De même, un changement de champ électrique dEn provoque un changement de la polarisation du cristal dPm = "0 mn dEn où mn désigne une composante du tenseur de susceptibilité électrique et "0 la permittivité électrique du vide. Ces deux équations décrivent les principaux phénomènes qui se produisent également dans les cristaux qui ne présentent pas de phénomène piézoélectrique. Dans les cristaux piézoélectriques (pour lesquels il n’y a pas de centre de symétrie), il y a un couplage mutuel entre toutes les grandeurs physiques qui sont situées dans les différents coins du quadrilatère figurant sur le diagramme. En supposant que pour un champ électrique faible et une petite contrainte mécanique, la polarisation Pm et la déformation ⌘kl sont des fonctions linéaires de tous les autres grandeurs physiques En et ij, on obtient Pm = Pm (En. ij ) et ⌘kl = ⌘kl (En. ij ). N’importe quel petits changements de Pm et ⌘kl peuvent être écrits sous les formes : dPm = ✓ d⌘kl = @Pm @En ✓ ◆ @⌘kl @En dEn +,T ◆ ✓ dEn +,T @Pm @ ij ✓ ◆ @⌘kl @ ij d ij = "0,T mn dEn + d E , T mij d ij (A.3.1) E,T ◆ d E , T ij,T = dnkl dEn + sE,T klij d ij (A.3.2) Chapitre A. Bases théoriques de la piézoélectricité. 130 où :,T mn est la susceptibilité électrique pour une contrainte sE,T klij le coefficient d’élasticité pour un champ électrique dE,T mij la constante piézoélectrique pour l’effet direct, et,T dnkl la constante piézoélectrique pour l’effet inverse mécanique constante, constant, Lorsque E= 0 et = 0, on dit que le cristal est électriquement et mécaniquement libre. Tous les coefficients doivent être fixés à une température constante T. En supposant que les valeurs initiales de champ électrique et de contrainte sont nulles, on obtient après intégration des équations (7) et (8) Pm = "0,T mn En + dE,T mij,T ⌘kl = dnkl En + sE,T klij ij (A.3.3) (A.3.4) ij La première de ces équations définit un changement complet de la polarisation Pm du cristal provoquée par un champ électrique externe En et une contrainte ij. La deuxième équation détermine la déformation totale ⌘kl du cristal causée par un champ électrique externe En et par une contrainte ij. On obtient une formulation des effets piézoélectriques directe et inverse pour En = 0 dans la première équation et pour ij = 0 dans la deuxième équation, respectivement. D’après la première loi de la thermodynamique, le changement de l’énergie interne U par unité de volume du cristal est déterminée par l’équation : dU = ij d⌘ij + En dPn + T dS (A.3.5) où ij, ⌘ij, En dPn et T dS signifient des changements totaux de l’énergie mécanique, électrique et thermique respectivement. En définissant un potentiel thermodynamique F sous la forme F=U ⌘ij ij E n Pn ST (A.3.6) on obtient, compte tenu de l’équation A.2.5, la formule suivante par dérivation dF = ⌘ij d ij Pn dEn SdT (A.3.7) En supposant que le potentiel thermodynamique est uniquement fonction des variables indépendantes F = F( ij, En, T ), on obtient : ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ @ 2F @⌘ij @ 2F @Pn,T = = dnij = = = dE,T nij @ ij @En T @En,T @ ij @En T @ ij E,T (A.3.8) Cette équation montre l’équivalence mutuelle des modules pertinents définissant les phénomènes piézoélectriques directe et inverse qui se produisent dans les cristaux mécaniquement et électriquement libres. A.3 Description thermodynamique de la piézoélectricité 131 Remarque : En utilisant les relations : P = "0 eE D = "0 E + P = "0 (1 + e )E = "E où D est le déplacement électrique, les équations de la piézoélectricité (9) et (10) peuvent être réécrites sous une des formes couramment utilisées : S = [s]T + [d]E D = [✏]E + [d]T où S est la déformation, T le tenseur des contraintes, E le champ électrique, [s], [✏] et [d] les matrices des constantes élastiques, diélectriques et piézoélectriques. 132 Chapitre A. Bases théoriques de la piézoélectricité. Annexe B Mailles hexagonale et rhomboédrique d’une phase trigonale La structure d’une phase trigonale peut être décrite dans deux systèmes de mailles rhomboédrique ou hexagonale. Pour la maille hexagonale, il y a de plus le choix entre une indexation à trois ou quatre indices de Miller. Le système de maille hexagonale est généralement utilisé dans les publications sur des structures trigonales. Toutefois, il présente l’inconvénient de supprimer l’information sur l’orientation de la symétrie ternaire de + ou 2⇡/3 par rapport à l’axe de rotation d’ordre 6 du système hexagonal. Pour ces raisons, les deux systèmes de maille sont utilisés dans le présent rapport. Les matrices de changement de base, les formules de changement de paramètres de maille et d’indexations à 4 indices sont rappelées ci-après. B. 1 Changement de base hexagonale rhomboédrique. Les relations entre les vecteurs de base des deux systèmes de maille sont : ah = ar c r ar = bh = ar + b r ou br = c h = ar + b r + c r cr = 1 a 3 h 1 a + 3 h 2 a 3 h ~, on a : Pour un point M repéré par un vecteur OM 133 1 b + 13 ch 3 h 2 b + 13 ch 3 h 1 b + 13 ch 3 h 134 Chapitre B. Mailles hexagonale et rhomboédrique d’une phase trigonale xM ah + yM bh + zM ch = xM (ar cr ) + yM ( ar + br ) + zM (ar + br + cr ) = (xM yM + zM )ar + (yM + zM )br + ( xM + zM )cr ou 1 1 1 1 2 1 2 1 1 XM ar +YM br +ZM cr = XM ( ah bh + ch )+YM ( ah + bh + ch )+ZM ( ah bh + c h ) 3 3 3 3 3 3 3 3 3 1 1 1 = (XM + YM 2ZM )ah + ( XM + 2YM ZM )bh + ( XM + YM + ZM )ch 3 3 3 D’où les matrices permettant d’obtenir les coordonnées du point M dans le système rhomboédrique ou le système hexagonal : 0 1 0 10 1 0 1 0 10 1 XM 1 1̄ 1 xM xM 1 1 2̄ XM @ YM A = @ 0 1 1 A @ yM A ou @ yM A = 1 @ 1̄ 2 1̄ A @ YM A 3 ZM r 1̄ 0 1 zM h zM h 1̄ 1 1 ZM r B.2 Transformation des paramètres de maille D’après la précédente figure, le vecteur b du rhomboèdre se projette au tiers de l’axe c et au 23 de la hauteur d’un triangle équilatéral de la base ab du système hexagonal. On en déduit que les paramètres ar et ↵r sont : ar = et r c2h + 3a2h 9 ↵r = 2. arcsin ah /2 B.3 r c2h + 3a2h 9! Indexation à 4 indices du système hexagonal Lorsqu’on utilise 3 indices, l’information sur l’équivalence des directions résultant de la symétrie d’ordre 6 n’est pas visible. Sur le dessin de gauche de la figure B.1, on constate que les directions équivalentes [100], [010] et [110] ont des indices différents qui ne se déduisent pas les uns des autres par de simples opérations de permutations, inversions ou changements de signe des indices. L’équivalence des directions est obtenue en ajoutant un quatrième vecteur de base, c’est-à-dire en passant de la base vectorielle a, b, c avec a = b et =120° à une base a1, a2, a3, c où 2a1 a2 a3 =3a et -a1 + 2a2 a3 =3b (figure B.3). Pour un même vecteur OM les notations à 3 indices (u, v, w) et 4 indices (U, V, T, W ), correspondent à des sommes vectorielles : B.3 Indexation à 4 indices du système hexagonal 135 Figure B.1 – Indexation à 3 et à 4 indices de Miller du système hexagonal. Le vecteur c perpendiculaire au plan de la figure reste invariant. OM(u, v, w) = ua +vb +wc OM(U, V, T, W )= U a1 +V a2 +T a3 +W c d’où l’on en déduit que les formules de conversion entre indices des directions [uvw] et [U V T W ] sont : U = (2u v)/3, V = (2v u)/3, T = (u + v)/3 et W = w ou u = 2U + V, v = U + 2V et w = W Les vecteurs (1, 0, 0) et (2, 1̄, 1̄, 0) sont de même direction mais le rapport de leurs modules est de 1/3. La règle pour le changement d’indices entre plans notés (hkl) et (HKJL) est simple puisque H = h, K = k, J = (h + k) et L = l. A noter que [U V T 0] est perpendiculaire au plan de même indices (HKJ0), par exemple [21̄1̄0] est perpendiculaire à (21̄1̄0). Mais que la direction perpendiculaire à un plan (HKJL) avecL 6= 0 est [U V T L2 ] avec 2 = 23 ( ac )2. 136 Chapitre B. Mailles hexagonale et rhomboédrique d’une phase trigo nale Annexe C Mesures en vibrométrie optique — 1Autre mesures sur l’échantillon n°1, texturé [111] Figure C.1 – Fonctions périodiques des variations de vitesse de vibration obtenues pour des valeurs de U0 de 302.5 V (a), 396.5 V (b), 438.5 V (c) et 490,5 V (d) à une fréquence de 7880 Hz, représentées par des cercles. Les courbes d’ajustement en rouge ont été obtenues à partir d’un affinement des paramètres indiqués dans le tableau C.1 et variations des amplitudes des vitesses des vibrations fondamentales et des harmoniques. 137 Chapitre C. Mesures en vibrométrie optique 138 Table C.1 – Paramètres de la vitesse de vibration fondamentale à une fréquence de 7880 Hz et des 3 ou 4 premières harmoniques obtenus à partir des ajustements des fonctions périodiques de vitesse de vibration montrés sur la figure C.1. La dernière lignes correspond aux maxima des taux de déformation. UO 302,5 V 396,5 V 438,5 V 490,5 V V0F 0.12504 0,19949 0,2508 0,39495 fF 98,593 90,12° 89,284° 111,13° V0H1 -0,086704 -0,15254 -0,19256 -0,092908 fH1 -99,695° -117,75° -120,11° -79,302° V0H2 0,0065486 0,014354 -0,023679 0,12023 fH2 98,72° 95,097° 98,671° 25,951° V0H3 0,0041776 0,0076476 0,011945 0,018365 fH3 57,767° 35,161° 17,0° 112,75° V0H4 0,0025116 0,0031416 -0,0070014 -0,093788 fH4 105,45° -2,5° 33,69° 155,69° cte -0,070005 0,011268 -0,018583 -0,042499 3,367 5,372 6,753 10,336 % l/l Figure C.2 – Variation du pourcentage de déformation en fonction de U0. — 2Mesures sur l’échantillon n°2, moins texturé [111] que le n°1 139 Figure C.3 – Fonctions périodiques des variations de vitesse de vibration obtenues pour des valeurs de U0 de 305 V, 340 V, 410 V, 437,5 V, 456 V et 490,5 V à une fréquence de 7880 Hz et variations des amplitudes des vitesses des vibrations fondamentales et des harmoniques. Table C.2 – Paramètres de la vitesse de vibration fondamentale à une fréquence de 7880 Hz et des 3 premières harmoniques obtenus à partir des ajustements des fonctions périodiques de vitesse de vibration montrés sur la figure C.3. UO 305 V 340 V 410 V 437.5 V 456 V 490,5 V V0F 0.19829 0,24047 0,33224 0,38127 0,41409 0,53021 fF -29,995 -30,506° -33,162° -34,561° 36,144° -23,409 V0H1 -0,00954 -0,01834 -0,0272 -0,036524 -0,04094 -0,0253 fH1 143,29° 105,06° 110,97° 111,69° 114,14° 130,38° V0H2 -0,009013 -0,00723 -0,01187 -0,020794 -0,015563 0,0927 fH2 -354,81° -316,72° -342,95° -339,41° -340,04° 151,47° V0H3 0,003 -0,0025 0,00257 0,001065 0,00281 0,00802 fH3 143,81° 347,67° 177,9° 85,217° 95,144° 140,88° cte -0,03838 -0,02962 -0,03558 -0,003289 0,006265 0,023051 5,3601 6,5006 8,981 10,307 11,194 14,333 % l/l 140 Chapitre C. Mesures en vibrométrie optique Figure C.4 – Variation du pourcentage de déformation en fonction de U0 — 3Mesures sur l’échantillon n°3, texturé [110] Les courbes d’ajustement des fonctions périodiques sont ici comparées aux courbes observées sur l’écran de contrôle (à cause de la présence d’une fréquence parasite!). Figure C.5 – Fonctions périodiques des variations de vitesse de vibration obtenues pour des valeurs de U0 de 450 V, 390,9 V, 336,3 V, 290,5 V, 246,9 V, 219,5 V, 188,7 V, 153,8 V et 135 V à une fréquence de 7520 ou 7530 Hz. Les ajustements sont ici comparés aux fonctions périodiques observées sur l’écran de contrôle. 141 Table C.3 – Paramètres de la vitesse de vibration fondamentale à une fréquence de 7880 Hz et des 2 ou 3 premi ères harmoniques obtenus à partir des ajustements des fonctions péri odiques de vitesse de vibration montr és sur la figure C.5. UO 450 V 390,9 V 336,3 V 290,5 V 246,9 V 219,5 V 188,7 V 153,8 V 135 V V0F 0,1491 -0,1017 -0,07074 -0,041344 -0,03412 -0,02676 -0,02007 -0,0204 -0,01008 fF -62,2° 120,27° 122,69° 124,12° 127,77° 128,95° 130,9° 128,84° 115,01° V0H1 -0,13197 0,067602 0,07173 -0,0449 0,03569 0,02562 0,01435 0,01514 0,0091 fH1 188° -11,46° -359,2° -189,59° 3,2741° 5,11° 3,4438° -1,0887° 352,51° V0H2 0,01218 0,007689 0,00549 0,00227 -0,00131 0,00085 -0,00095 0,00115 -0,0011 fH2 -327,91° -330,05° 32,158° 14,075° -170,25° 65,612° 122,5° 175,5° 48,211° V0H3 -0,00428 -0,03062 0,00179 0,00042 -0,00161 fH3 190,95° -168,96 14,985° 115° 172,2° cte 0,01130 0,01780 -0,01026 0,00544 0,00144 -0,01951 -0,0224 -0,00576 -0,0049 % l/l 4,1993 2,8661 1,9934 1,1652 0,96167 0,75418 0,56569 0,5757 0,28407 Figure C.6 – (a) Variations des amplitudes des vitesses des vibrations fondamentales et des harmoniques et (b) Variation du pourcentage de déformation en fonction de U0.
55,170
01/tel.archives-ouvertes.fr-tel-03228595-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
9,268
15,697
I.1.1.Thermodynamique des réactions électrochimiques D'un point de vue thermodynamique, le phénomène de corrosion est un processus électrochimique d'interface au cours duquel le système de corrosion évolue spontanément (i.e. sans apport externe Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 19 d'énergie) vers un état thermodynamiquement plus stable. Il paraît alors primordial de définir les concepts clés de la thermodynamique qui régissent ce phénomène électrochimique [33], [34], [35]. I.1.1.1.Spontanéité d'une réaction électrochimique La spontanéité d'un processus physico-chimique peut être déterminée par l'étude de l'évolution de l'enthalpie libre (ou énergie libre de Gibbs, notée G [ J ]) entre deux états. Si l'on considère la réaction chimique définie par l'équation (Eq. I-2), les réactifs A et B d'enthalpie libre Gk = Gl + Gm ne peuvent réagir spontanément pour former les produits C et D d'enthalpie Gn = GH + Go que si la variation d'enthalpie du système global ∆G = Gn − Gk est négative au cours de la réaction. pq A+B→C +D Eq. I-2 Cette variation d'enthalpie libre dépend notamment des concentrations des espèces dissoutes en solution. Ainsi une augmentation des concentrations des espèces C et D peut entraîner la réaction inverse (Eq. I-4) : ps C +D→A+B Eq. I-3 A l'état initial, la réaction de formation de C et D est initiée spontanément car Gn = 0 et donc, de façon évidente, Gk > Gn. A mesure que les produits sont formés, l'énergie Gn qui leur est associée augmente alors que Gk diminue par consommation des réactifs. Si les deux valeurs d'énergie se rejoignent (Gk = Gn ), la différence d'enthalpie s'annule : la réaction a atteint son point d'équilibre décrit par l'équation (Eq. I-4) : pq → A + B tu C + D ps Eq. I-4 A l'équilibre, les vitesses de réaction υ` et υ$ sont égales. On parle ici d'équilibre dynamique car le système n'est pas au repos. En résumé, l'occurrence spontanée d'une réaction dépend de la variation d'enthalpie libre associée : - ∆ G < 0 : réaction possible - ∆G = 0 : réaction à l'équilibre - ∆ G > 0 : réaction impossible (spontan ément) Le fait qu'une réaction chimique puisse être qualifiée de spontanée ne e pas nécessairement que sa cinétique est rapide. Une réaction favorisée (∆G < 0 ) peut en effet se dérouler à des cinétiques extrêmement lentes. Par exemple, le diamant est thermodynamiquement instable sous les conditions de température et de pression atmosphériques usuelles. Le diamant se transforme donc spontanément en graphite (autre forme allotropique du carbone), mais sur une échelle de temps qui se chiffre en milliards d'années. La cinétique de la réaction est contrôlée par la barrière d'énergie à franchir pour passer de l'état de réactif à l'état de produit, thermodynamiquement plus stable. En pratique, la plupart des métaux sont extraits de minerais (sols riches en oxydes métalliques). La transformation des oxydes en métal est un processus consommateur d'énergie pouvant s'écrire schématiquement de la manière suivante : Minerai + Energie → Métal avec G } é ~•J > G}K€M(•K Eq. I-5 Cette transformation nécessite plus ou moins d'énergie selon la nature des oxydes constituants les minerais. Dans l'histoire de la métallurgie, les premiers métaux découverts, produits et exploités par l'Homme présentaient des chaleurs de formation modérées [1]. Les hommes commencèrent par travailler le cuivre vers 4000 ans av. JC puis le bronze, alliage de cuivre et d'étain, entre 2500 et 1000 ans av. JC. L'âge du fer ne débute qu'avec l'apparition des premiers bas fourneaux, vers 1000 ans av. JC, dans lesquels des couches de minerais étaient superposées à des couches de charbon de bois pour atteindre la température de fusion du fer, plus élevée que celle du cuivre (1536 °C contre 1085 °C). Par la suite, il a fallu attendre le développement de l'ère industrielle et l'accroissement des capacités de production énergétique pour exploiter de nouveaux métaux nécessitant des chaleurs de formation plus fortes : cobalt, nickel, chrome, manganèse, aluminium, titane A l'inverse, le passage de l'état métallique à l'état d'oxyde s'accompagne d'une diminution d'enthalpie libre. La corrosion constitue ainsi un phénomène spontané dans lequel le métal tend à minimiser son énergie en adoptant sa forme oxydée de plus faible enthalpie. Dans les conditions terrestres, les métaux présents naturellement à l'état d'oxydes auront toujours tendance à retrouver leur état d'origine et seront par conséquent susceptibles de s'oxyder. A l'inverse, l'or pur ne se corrode pas car est est stable à l'état métallique dans les conditions naturelles terrestres. Afin de caractériser au mieux la spontanéité du processus de corrosion, il paraît donc essentiel d'exprimer analytiquement la variation d'enthalpie du système réactionnel. L'enthalpie libre de Gibbs d'un système fermé G [ J] est définie par la relation (Eq. I-6) : G = U + PV − TS Eq . I-6 Où U correspond à l'énergie interne [ J], P est la pression [Pa], V est le volume [m ƒ ], T est la température [K] et S l'entropie [ J/K]. Dans le cas d'une réaction chimique, le système est considéré au repos à l'échelle macroscopique. La variation d'énergie du système au cours de la réaction ne résulte alors que de la variation de son énergie interne. À température et pression constante, l'enthalpie libre d'un système à N espèces peut donc être formulée selon l'équation suivante (Eq. I-11) : " G = ' " nK μ K – K•` n ,' Eq. I-11 En considérant la solution comme étant idéale d'un point de vue thermodynamique (loi de Lewis et Randall), il est possible d'obtenir la formulation suivante du potentiel chimique d'une espèce en solution (Eq. I-12) : μK = μK- + RT ln(aK ) Où - Eq. I-12 μK- est le potentiel chimique standard de l'espèce i [ J/mol] R est la constante des gaz parfait [= 8,3145 J/(mol. K)] T est la température [K] aK est l'activité de l'espèce i L'activité d'un constituant est un nombre sans dimension dont l'expression dépend de son état physicochimique. Elle est égale à l'unité pour un corps pur et peut être formulée en fonction de sa concentration molaire pour une espèce en solution selon la relation (Eq. I-13) : Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 22 aK = γK Où - [CK ] [C- ] Eq. I-13 [CK ] est la concentration molaire de l'espèce ionique en solution i [mol/L] [C- ] est la concentration de référence [= 1 mol/L] γK est le coefficient d'activité ; ce coefficient tient compte des interactions électrostatiques entre les différente espèces du mélange et quantifie donc l'écart entre une solution idéale (coefficient égal à l'unité) et la solution réelle (coefficient compris entre 0 et 1). Pour des solutions fortement diluées, l'activité d'une espèce en solution peut être assimilée à sa concentration molaire (le coefficient d'activité est alors pris égal à l'unité). Le concept d'activité peut également être transposé aux espèces gazeuses. L'activité d'un gaz est alors égale au rapport de sa pression partielle sur la pression atmosphérique. Si l'on considère une réaction chimique à N constituants, la loi de conservation de la masse (Eq. I-14) peut être formulée comme suit : " " nK υK = 0 Eq. I-14 K•` Où nK est la quantité de matière de l'espèce i [ mol ] et υK est le nombre sto e chiométrique de l'espèce i pris conventionnellement en va leur algébrique négative si l'espèce est un réactif et positive si c'est un produit. Les quantit és de matière des différentes espèces du système sont reliées entre elles par l 'avancement de la réaction (ou variable de De D onder, du nom du chimi ste belge qui l'a initialement introdu ite ), not é communément ξ [mol] : dnK Eq. I-15 dξ = υK Finalement, la différentielle de l'enthalpie libre dG définie par la relation (Eq. I-9) peut être complétée par un terme supplémentaire obtenu par différentiation de l'équation (Eq. I-11) et être mise sous la forme suivante (Eq. I-16) : " dG = V dP + S dT + δW + " μK υK dξ ‰ K•` Eq. I-16 En thermodynamique, la grandeur caractéristique de la condition d'évolution d'une réaction chimique est la variation d'enthalpie libre de réaction notée ∆( G [ J/mol]. Elle correspond à la dérivée partielle de l'enthalpie libre G par rapport à l'état d'avancement de la réaction pour une transformation isobare et isotherme (Eq. I-17) : ∂G Eq. I-17 ∆( G = Ž • ∂ξ n,' Dans une réaction d'oxydo-réduction, les constituants du système réactionnel sont des espèces chargées, en équilibre entre plusieurs phases possédant des potentiels différents. Le mouvement ou le réarrangement spatial d'espè chargées électriquement implique nécessairement l'existence d'un Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 23 travail d'origine électrique. Dans le cas d'une charge infinitésimale dq soumise au potentiel électrique Φ [V], le terme de travail électrique δW ‰ se met sous la forme (Eq. I-18) : δW ‰ = Φ dq Eq. I-18 dqK = zK F dnK Eq . I-19 Au cours du processus réactionnel, la production et la consommation de charges électriques résultent des variations de quantités de matière relatives aux ions impliqués. Pour chaque porteur de charge i, on obtient donc la relation suivante (Eq. I-19) : Où zK est la charge de l'ion i et F est la constante de Faraday qui correspond à la charge molaire élémentaire (F ≃ 96 485 C/mol) Finalement, le terme de travail électrique résultant de la création (ou disparition) des porteurs de charges ioniques (au nombre de N) s'exprime selon l'équation (Eq. I-20) : " δW = " ΦK zK F υK dξ ‰ Eq. I-20 K•` En s'appuyant sur l'expression générale de la différentielle de G (Eq. I-16) et sur la définition précédente ( Eq. I-20), l'enthalpie libre de réaction peut être formulée à partir des potentiels chimiques μK et électrique ΦK des différents ions impliqués dans la réaction électrochimique selon la relation (Eq. I-21) : " ∆( G = " μK υK + ΦK zK F υK K•` Eq. I -21 On peut définir le potentiel électrochimique d'un ion i noté μ̅K tel que l'enthalpie libre de réaction s'exprime comme (Eq. I-22): " ∆( G = " μ̅K υK Eq. I-22 μ̅ K = μK + ΦK zK F Eq. I-23 K• ` Avec Il est également possible d'écrire cette grandeur thermodynamique en fonction des activités des constituants du système en utilisant la définition (Eq. I-12) du potentiel chimique (Eq. I-24) : ∆( G = ∆( G - " ¥ + RT " ln¤aK ¦ § + K•` " F " ΦK zK υK K•` Eq. I-24 Où ∆( G - [ J/mol] désigne l'enthalpie libre de réaction dans des conditions standards (Eq. I-25): Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures ∆( G - " = " υK μK- K•` Eq. I-25 Pour une évolution donnée de réaction (sens direct ou indirect), il est possible de faire la distinction entre les réactifs et les produits du système réactionnel ; l'enthalpie libre de réaction d'un système mettant en jeu Nk réactifs et Nn produits, de sorte que Nk + Nn = N, s'énonce alors selon la relation suivante : " ∆( G = ∆( G + RT ln(Qk ) + F " ΦK zK υK - K•` Eq. I-26 Où Qk correspond au quotient de la réaction tel que (Eq. I-27) : Qk = "© ¥¦ ∏K•` aK ¥« ¬ ∏" a•` aa Eq. De façon analogue, l'enthalpie libre de réaction ∆( G - peut s'exprimer en fonction de la constante d'équilibre de la réaction, généralement notée K (Eq. I-28) : ∆( G - = −RT ln (K) Eq. I-28 La constante d'équilibre K correspond en effet au quotient de la réaction à l'équilibre (∆( G = 0). Sa valeur est indépendante de la composition initiale du système, elle n'est fonction que de la température. Le quotient de réaction permet de caractériser l'état d'avancement d'une réaction, et ainsi de prévoir son évolution. Lorsque le quotient de réaction est inférieur à la constante d'équilibre, le système évolue dans le sens direct de la réaction qui a été défini au départ ; la concentration (ou l'activité) des réactifs diminue et celle des produits augmente. A l'inverse, un quotient de réaction supérieur à la constante d'équilibre traduit une évolution dans le sens indirect de la réaction ; les réactifs voient donc leur concentration (ou activité) augmenter au détriment des produits qui sont consommés. I.1.1.2.Interface métal-électrolyte Lorsqu'un métal pur homogène (M) est plongé dans un électrolyte contenant ses cations métalliques (M de ), et en l'absence d'autres espéces oxydantes ou réductrice, il se retrouve rapidement en équilibre et sujet à une réaction d'oxydo-réduction à l'interface métal-électrolyte. Du fait de l'agitation thermique, certains cations du réseau cristallin passent en effet en solution, laissant derrière eux un excès d'électrons dans le métal : c'est une réaction d'oxydation. Ces électrons excédentaires permettent alors à d'autres cations dissous à proximité de l'interface de rejoindre le réseau cristallin, repassant ainsi sous la forme métallique : c'est une réaction de réduction. Cet équilibre dynamique est formalisé par l'équation d'oxydo-réduction suivante (Eq. I-29) : M ⇆ M de + z e g Eq. I-29 Corpus théorique dé dié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 25 Cet équilibre électrochimique conduit alors à la séparation spatiale des porteurs de charges électroniques et ioniques de part et d'autre de l'interface métal-électrolyte comme illustré schématiquement par la Figure I-1. La nature des porteurs de charges et leurs distributions dans l'espace diffèrent considérablement des deux côtés de l'interface. En effet, le métal a une structure cristalline composée de cations distribués de façon quasi-périodique dans l'espace. La nature électronique particulière de la liaison métallique est à l'origine de plusieurs propriétés macroscopiques des métaux et notamment de leur conductivité électrique élevée induite par le fluide d'électrons libres qui assure la circulation du courant. l'inverse, la solution électrolytique contient des espèces ioniques chargées (cations et anions) soumises à des forces d'interaction plus faibles (Pont hydrogène, forces de London et de Van der Waals) que la liaison métallique. Figure I-1 Illustration de la distribution des charges électriques mobiles à l'interface métal-électrolyte ; la structure de la double couche est décrite selon le modèle de Grahame La distribution de ces différentes charges mobiles dépend de l'adsorption des molécules d'eau et des ions (anions et cations le plus souvent hydratés) à la surface du métal. L'eau est une molécule polaire car le barycentre des charges positives ne coïncide pas avec celui des charges négatives. Elle présente ainsi un moment dipolaire qui lui confère une sensibilité aux champs électriques induits par les charges environnantes. Les molécules d'eau s'orientent donc en fonction des charges présentes à la surface du métal. Les cations dissous généralement solvatés ne peuvent donc pas approcher la surface d'une distance inférieure au rayon de la sphère d'hydratation. A l'inverse, les anions, rarement hydratés, ont cette capacité leur permettant d'être adsorbés chimiquement à la surface du métal. La séparation spatiale des charges électriques conduit à l'établissement de potentiels différents de part et d'autre de l'interface. Il existe donc un potentiel propre au métal Φ ̄, un potentiel propre à la solution électrolytique ΦI et, par conséquent, l'établissement d'une différence de potentiel ∆Φ = Φ ̄ − ΦI. Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 26 Dans la littérature scientifique, plusieurs auteurs ont proposé des modèles électriques équivalents pour décrire le comportement de cette interface et caractériser ainsi l'évolution du potentiel électrique. Helmholtz a été le premier à étudier les mécanismes de séparation des charges électriques à l'interface métal-électrolyte. En 1879, il introduit le concept de double couche électronique en assimilant le comportement électrique de cette interface à celui d'un condensateur à plaques parallèles dont les plans (un chargé positivement et l'autre négativement) correspondent respectivement à la surface de l'électrode métallique et à une couche d'ions adsorbés en surface par des liaisons électrostatiques [36]. De par la distribution spatiale des charges électriques, le potentiel électrique varie linéairement entre ces deux couches. Même si les charges électriques s'accumulent à la surface de l'électrode, certains ions sont en réalité susceptibles de se déplacer dans la solution à proximité de l'électrode sous l'effet de l'agitation thermique (mouvement brownien). En s'appuyant sur ce principe phénoménologique, Gouy et Chapman ont développé (entre 1910 et 1913) la théorie de la double couche diffuse dans laquelle le potentiel électrique diminue de façon exponentielle avec la distance à l'électrode [37], [38]. Dans ce nouveau modèle, la double couche est plus épaisse que celle de Helmholtz et les ions sont considérés comme des charges ponctuelles mobiles qui peuvent se déplacer dans cette couche ; la capacité du condensateur associé à ce modèle théorique dépend alors fortement de la force ionique de la solution. Compte tenu des écarts notables obtenus entre la modélisation et les données expérimentales, Stern combine en 1927 les deux modèles précédents en structurant la double couche électronique comme la superposition de deux couches distinctes [39] : - Une couche dense constituée des molécules de solvant et des ions adsorbés dans laquelle le potentiel varie linéairement avec la distance à l'électrode - Une couche diffuse composé des ions solvatés (anions ou cations) qui peuvent se déplacer sous l'effet de l'agitation thermique ; dans cette couche, le potentiel décroit exponentiellement avec la distance à l'électrode. En 1947, Grahame améliore le modèle de Stern en proposant un modèle à 3 couches qui permet de décrire encore plus finement la distribution spatiale des charges électriques à l'interface métalélectrolyte [40]. Dans ce modèle, la couche de Stern est divisée en deux parties : - le plan de Helmholtz intérieur (IHP) qui passe par le barycentre des anions adsorbés à la surface du métal ; - le plan de Helmholtz extérieur (OHP) qui contient le barycentre des cations solvatés, séparés des charges négatives par leur sphère d'hydratation. Au delà de cette couche dense, les porteurs de charges sont susceptibles de se déplacer comme dans le modèle précédent. Encore aujourd'hui, le modèle de Grahame est reconnu par la communauté scientifique comme étant suffisamment robuste pour décrire le comportement électrique de la double couche à l'interface électrode-électrolyte ; l'écart entre les résultats théoriques et les données expérimentales est en effet relativement faible dans la grande majorité des cas. La Figure I-1 illustre la distribution des charges électriques selon ce modèle théorique. Ces dernières années, l'apport de la modélisation numérique 3D a permis d'améliorer la compréhension des mécanismes d'adsorption et de transport à l'origine du phénomène de double couche dans le but de caractériser au mieux le comportement électrique de l'interface électrode-électrolyte [41]. On notera que la forme réduite (Red) peut-être un ion en solution ou le matériau de l'électrode. Les électrons libres ne peuvent pas exister au sein de l'électrolyte et sont donc nécessairement dans la phase métallique. Un système chimique est à l'équilibre si sa variation d'enthalpie libre de réaction est nulle ; la condition d'équilibre pour un système réactionnel à N constituants s'écrit alors (Eq. I-31) : " ∆( G = " μ̅ K υK = 0 K•` Eq. I-31 En s'appuyant sur le développement théorique précédent qui a permis l'introduction du concept thermodynamique de potentiel électrochimique d'une espèce ionique μ̅K, l'équilibre du système réactionnel peut être décrit par l'équation (Eq. I-32): β(μkM3 + ΦI zkM3 F ) − α (μ ́μ + ΦI z ́μ F ) − n (μM + FΦ ̄ ) = 0 Eq. I-32 n = α z ́ μ − β zkM3 Eq. I-33 Où - μkM3 et μ'μ sont les potentiels chimiques des espèces Red et Ox [ J/mol] - μM est le potentiel chimique de l'électron [ J/mol] - zkM3 et z'μ sont les charges électriques des espèces Red et Ox - Φ ̄ et ΦI sont les potentiels électriques du métal et de l'électrolyte de part et d'autre de la double couche [V] La conservation de la charge appliquée au système réactionnel conduit à la relation (Eq. I-33) définissant la valeur de n : En combinant les deux équations précédentes (Eq. I-33) et (Eq. I-31), on obtient alors (Eq. I-34) : ( β μkM3 − α μ ́μ − n μM ) − nF (Φ ̄ − ΦI ) = 0 Eq. I-34 En remplaçant les potentiels chimiques des espèces impliquées dans le processus réactionnel par leur expression analytique (Eq. I-12), on obtient la relation (Eq. I-35) : - - β¤μkM3 + RT ln(akM3 )§ − α¤μ ́μ + RT ln(a ́μ )§ = nF∆Φ Eq. I-35 Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 28 Où - - - μkM3 et μ'μ sont les potentiels chimiques standard des formes réduite et oxydée [J/mol] - akM3 et a ́μ sont les activités des espèces Red et Ox L'équation (Eq. I-35) fait apparaître la différence de potentiel ∆Φ = Φ ̄ − ΦI à l'interface métalélectrolyte qui peut se mettre sous la forme (Eq. I-36): ∆Φ = E- + ¶ RT a ́μ ln'* – nF a kM3 Eq. I-36 Où E- [V] est le potentiel standard de l'électrode associé au couple redox Ox/Red. Cette grandeur thermodynamique ne dépend que de la température et s'exprime selon la relation (Eq. I-37) : E- = −∆( G - nF Eq. I-37 La quantité ∆Φ n'est cependant pas définie de façon absolue, ni mesurable directement. Elle est alors mesurée de façon relative, d'où la nécessité d'utiliser un système de référence dont le potentiel ∆Φ(M ̧ est conventionnellement fixé à 0. Le système de référence conventionnel est l'électrode standard d'hydrogène H e /H$ (ESH). On définit alors le potentiel d'équilibre E [V] d'un système quelconque au regard de l'électrode standard à l'hydrogène (Eq. I-38) : E = ∆Φ − ∆Φ o »/os Eq. I-38 Finalement, on obtient l'expression du potentiel d'électrode du couple Ox/Red sous la forme (Eq. I-39) : E = E- + ¶ RT a ́μ ln'* – nF a kM3 Eq. I-39 Cette relation est plus communément appelée loi de Nernst par la communauté scientifique, du nom du chimiste allemand qui l'a découverte au XXe siècle. On alerte ici le lecteur sur le fait que seules les formes réduite et oxydée d'une même espèce ont été considérées dans l'équation d'équilibre (Eq. I-30), sans faire mention des autres espèces ioniques possiblement présentes. Les ions hydroxydes ou oxonium peuvent notamment être impliqués dans le processus réactionnel sans faire partie du couple Ox/Red et doivent donc être pris en compte dans l'expression du potentiel d'électrode. Pour l'équation d'équilibre générale décrite par (Eq. I-14), la loi de Nernst s'exprime selon l'équation (Eq. I-40) : E = E- + RT ln(Qk ) nF Eq. I-40 Où Qk est le quotient de réaction (Eq. I-27) fonction des activités des différentes espèces impliquées dans la réaction électrochimique. Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 29 En appliquant l'expression précédente à la réaction d'équilibre (Eq. I-29), on peut définir la valeur du potentiel réversible associé au couple M de /M dans le cas d'un équilibre entre le métal et l 'électrolyte (Eq . I-41): E ̄ = E- + RT ln([M de ]) nF Eq. Si le potentiel E du métal est supérieur à son potentiel d'équilibre E ̄, il y a une possibilité de corrosion (oxydation du métal) et on parle alors de polarisation anodique. Si au contraire E ̄ < E, il y a une possibilité de réduction. On dit ici que le métal est polarisé dans la direction cathodique. La différence E − E ̄, qualifiée de surtension, est communément associée à la lettre grecque η dans la littérature. Le signe de la surtension subie par le métal définit ainsi la direction de polarisation et la réaction favorisée : - η > 0 : polarisation anodique (oxydation du métal favorisée), - η < 0 : polarisation cathodique (réduction des cations métalliques favorisée). I.1.1.4.Stabilité thermodynamique d'un métal : diagramme de Pourbaix Dans une solution électrolytique, il peut s'établir une multitude d'équilibres entre les différentes espèces impliquées dans les réactions d'oxydo-réduction. La partie précédente a montré que le potentiel d'une électrode au regard de son potentiel d'équilibre réversible influe sur la direction de la réaction d'oxydoréduction. De plus, la corrosion aqueuse des métaux implique nécessairement l'intervention des couples oxydo-réducteurs de l'eau, à savoir les couples O$ /H$ O et H$ 0/H$. De ce fait, le potentiel hydrogène de la solution, noté pH, influence également la stabilité thermodynamique des espèces impliqués. Cette grandeur adimensionnelle peut s'exprimer selon la relation (Eq. I-42): pH = 14 − log([OHg ]) Eq. I-42 Où [OHg ] est la concentration en ions hydroxyde dans l'électrolyte [mol/ L] Les diagrammes de Pourbaix [42]–[44] représentent, dans le plan {pH, E}, les domaines d'existence ou de prédominance associés aux différentes formes d'une espèce chimique donnée (oxydes, ions, complexes). L'axe vertical représente le potentiel d'équilibre exprimé par rapport à une électrode de référence et l'axe horizontal représente le pH de la solution en contact avec la phase métallique. Les frontières sont définies par les équilibres électrochimiques ou acido-basiques des espèces impliquées et délimitent des zones théoriques de stabilité thermodynamique. Un diagramme de Pourbaix présente les conditions (de potentiel et de pH) pour lesquelles une électrode métallique est thermodynamiquement stable (domaine d'immunité), à l'état passif (domaine de passivation) ou sujette à une corrosion active (domaine de corrosion). Les lignes parallèles en trait pointillé délimitent le domaine de stabilité de l'eau. La ligne supérieure représente le potentiel d'équilibre de l'électrode O$ /H$ O et la ligne inférieure le potentiel d'équilibre de l'électrode H$ 0/H$. Pour l'équilibre réversible associé au couple redox H$ 0/H$ (Eq. I-43), la loi de Nernst explicitée dans la précédente partie (Eq. I-40) permet de déterminer le potentiel d'équilibre E}K€ [V] (Eq. I-44) : 2 H$ O + 2e g ⇆ H$ + 2OH g E}K€ = −0,24 + RT 1 ln Ž • [OH g ]$ 2F Eq. I-43 Eq. I-44 A partir de la relation précédente, le potentiel E}K€ peut être exprimé en fonction du pH de l'électrolyte selon la relation (Eq. I-45): Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 32 E }K€ = −0,24 − 0,059 pH Eq. I-45 2 H$ O ⇆ O $ + 4 H e + 4e g Eq. I-46 Pour l'équilibre réversible associé au couple redox O$ /H$ O (Eq. I-46), le potentiel d'équilibre E}•μ [V] est explicité à partir de la loi de Nernst selon l'équation (Eq. I-47) : E}•μ = 0,989 − RT 1 ln Ž e AE • [H ] 4F Eq . I-47 Après simplification, on obtient alors la relation (Eq. I-48) : E}•μ = 0,989 − 0,059 pH Eq. I-48 Les deux droites sont donc parallèles avec une pente négative. Les réactions de corrosion aqueuse en conditions naturelles se produisent donc nécessairement à l'intérieur du domaine de stabilité de 'eau matérialisé par l'espace compris entre ces droites. Dans un diagramme de Pourbaix, on distingue 3 types d'équilibres distincts : - Les équilibres entre deux espèces de même degré d'oxydation (exemple : Fe $e et Fe(OH)$ ). La frontière est verticale dans le diagramme et le pH est constant pour une concentration en cations métalliques donnée (Eq. I-49) : pHK = C` + C$. ln([M de ]) Eq. I-49 Avec C` et C$ des constantes réelles. - Les équilibres entre deux espèces de degrés d'oxydation différents mais dont la réaction d'oxydo-réduction ne fait pas intervenir les ions H e ou OH g (exemple : Fe $e et Fe ). La frontière est horizontale dans le diagramme et le potentiel est constant pour une concentration en cations métalliques donnée (Eq. I-50) : EK = Cƒ + CAE. ln([M de ]) Eq. Eq. I-51 Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures géni civil Les constantes CK s'expriment en fonction des constantes de précipitation des produits de solubilité des différents complexes (hydroxydes de fer II et II, ion hypoferrique) et des potentiels standards des différents couples redox impliqués. Les différentes frontières d'équilibre ont été consignées dans les tableaux ci-dessous (Tableau I-2 pour les frontières verticales et Tableau I-3 pour les autres frontières). Chaque frontière entre deux espèces, caractérisée par son équation d'équilibre, a été associée à un numéro (pHK ou EK ) ; l'équation de droite correspondante a été déterminée pour une température de 20°C. Toutes ces frontières ont été reportées sur le diagramme de Pourbaix en Figure I-3. Chaque équilibre a été associée à une couleur en fonction de la nature de sa frontière : rouge pour les frontières qui ne dépendent que de la concentration en cations, bleu pour les frontières qui ne sont fonction que du pH de la solution et violet pour celles qui résultent des deux. N° pH` pH$ pHƒ Couple Fe(OH)$ /Fe $e Fe(OH)$ /HFeO$g Fe(OH)ƒ /Fe $e Équation d'équilibre Fe(OH)$ ⇆ Fe $e + 2 OH g Fe(OH)$ ⇆ HFeO$g + He Fe(OH)ƒ ⇆ Fe $e + 3 OH g Frontière d'équilibre pHi pH` = 6,45 − log([Fe $e ])/2 pH$ = 18,3 + log([Fe $e ]) pHƒ = 1,33 − log([Fe $e ])/3 Tableau I-2 Frontières d'équilibre en pH (verticales) associées aux équations de précipitation des différentes formes du fer dans l'eau (Température de 20°C) ° E` E$ Eƒ Couple Équation d'équilibre Fe(OH)$ /Fe Fe(OH)$ + 2 e g + 2 H e ⇆ Fe + 2 H$ O g g HFeO$ + 3 e + 2 H e ⇆ Fe + 2 H$ O Fe $e /Fe HFeO$g /Fe EÈ Fe ƒe /Fe $e EÉ Fe(OH)ƒ /Fe(OH)$ Eà EÑ Fe(OH)ƒ /Fe $e Fe(OH)ƒ /HFeO$g Fe $e + 2 e g ⇆ Fe Fe ƒe + e g ⇆ Fe $e Fe(OH)ƒ + e g + 3 H e ⇆ Fe $e + 3 H$ O Fe(OH)ƒ + e g + He ⇆ Fe(OH)$ + H$ O Fe(OH)ƒ + e g ⇆ HFeO$g + H$ O Frontière d'équilibre Ei [V/ECS] E` = −0,68 + 0,059. log([Fe $e ])/2 E$ = −0,3 − 0,059. pH Eƒ = 0,24 − 0,0885. pH + 0,0295. Si un diagramme {pH, E} fournit une aide précieuse à la compréhension des phénomènes de corrosion, il doit être utilisé en connaissance de ses limites : - Il n'apporte aucune information sur l'aspect cinétique des réactions. Un métal qui se situe dans son domaine de corrosion peut se dissoudre à des vitesses très lentes et négligeables. - Il ne donne aucune information quant à l'adhérence des composés formés. Pour qu'un phénomène de passivation soit efficace, il faut que les oxydes et hydroxydes formés soient parfaitement adsorbés et isolent totalement l'électrode de la solution électrolytique en contact. Dans de nombreux cas, la couche de passivation formée est inhomogène ou perméable aux espèces oxydantes (dioxygène) et les réactions de corrosion ne sont alors pas stoppées mais se poursuivent à des cinétiques plus lentes. Les oxydes d'aluminium, par exemple, forment une couche compacte qui ralentit fortement la vitesse des réactions de corrosion contrairement aux oxydes de fer. Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 35 - Le diagramme suppose une parfaite homogénéité du milieu. Or, le pH n'est généralement pas constant sur toute la surface de l'électrode ; le pH est souvent plus faible aux niveaux des sites anodiques et plus élevé aux niveaux des surfaces cathodiques. Figure I-4 Influence de la concentration en cations métalliques sur les frontières d'équilibre du diagramme de Pourbaix de l'acier I.1.2. Cinétique des réactions électrochimiques I.1.2.1.Typologie usuelle de la corrosion de l'acier dans les structures de génie civil La corrosion de l'acier dans les structures de génie civil est un processus électrochimique résultant du couplage de deux électrodes réversibles, a minima. Par couplage, on entend ici la possibilité d'échange d'électrons entre ces deux électrodes. Dans ce processus électrochimique, la dissolution du métal correspond à la réaction anodique (Eq. I-52) qui fournit des électrons, consommés par la réaction cathodique. Dans la solution interstitielle basique du béton, cette réaction cathodique correspond à la réduction du dioxygène dissous, formant des ions hydroxydes (Eq. I-53) : Fe → Fe $e + 2e g O$ + 2 H$ O + 4e g → 4 OH g Eq. I-52 Eq. I-53 Dans d'autres électrolytes comme le sol par exemple, la réaction cathodique ne correspond pas toujours à la réduction du dioxygène. D'autres espèces peuvent alors être réduites à l'interface métal-électrolyte comme par exemple les ions oxoniums lorsque la structure métallique est enterrée dans un sol anoxique (pauvre en dioxygène). Dans le développement théorique qui suit, on considérera la réduction du dioxygène comme la réaction cathodique prédominante dans le processus de corrosion. Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 36 En fonction de la proximité spatiale de ces réactions, on peut distinguer 2 types de corrosion de l'acier : la corrosion uniforme (qualifiée de « microcell corrosion » dans la littérature anglophone) et la corrosion galvanique ou localisée (« macrocell orrosion »). La distinction entre corrosion uniforme et corrosion galvanique peut s'énoncer de la façon suivante : - Corrosion uniforme : les zones anodiques et cathodiques sont immédiatement adjacentes, à l'échelle microscopique, le long de la structure métallique ; chaque électron produit par la dissolution de l'acier est consommé localement par réduction du dioxygène impliquant une chute ohmique (différence de potentiel induite par la résistivité de l'électrolyte) négligeable entre les zones anodiques et cathodiques. Les sites anodiques et cathodiques atteignent ainsi le même potentiel électrochimique (noté usuellement E&'(( ), le champ de potentiel global est uniforme dans le volume de l'électrolyte et, par conséquent, aucun courant ionique de volume n'est produit. - Corrosion galvanique (ou localisée) : les zones anodiques et cathodiques à l'interface métalsolution sont séparées dans l'espace, de sorte qu'il existe une résistance électrolytique non négligeable entre elles. Par conséquent, les cellules anodiques et cathodiques n'atteignent pas le même potentiel, ce qui entraîne un gradient de potentiel (i.e. une tension) et un courant de corrosion galvanique dans le volume de béton. Dans le béton armé, le seul état de corrosion uniforme admissible correspond à un réseau d'armatures entièrement passif. L'état passif constitue effectivement un système de corrosion, mais de cinétique très faible. En revanche, quelle qu'en soit la cause (chlorures ou carbonatation du béton), la dépassivation de l'acier est toujours locale à la surface des armatures, impliquant nécessairement la formation de zones actives localisées, voisines de zones passives. Ces zones n'étant que des surfaces différentes d'une même armature ou d'un réseau d'armatures connectées, elles échangent naturellement des électrons voyageant au sein même du réseau d'acier. Dans le béton armé, l'état actif doit donc toujours être considéré comme un système de corrosion galvanique ou localisée, résultant du couplage de sites d'acier actif avec ferraillage adjacent à l'état passif [18]. I.1.2.2.Système de corrosion uniforme La définition d'un système de corrosion est basée sur le concept d'électrode réversible. La corrosion se produit à partir du couplage électrique de deux électrodes réversibles distinctes, l'une jouant le rôle d'anode, tandis que l'autre est la cathode de la cellule électrochimique globale. Comme évoqué en introduction, les deux électrodes réversibles impliqués dans le processus de corrosion de l'acier dans les structures de génie civil, sont formées des couples Fe $e /Fe (noté avec un indice Fe ) et O$ /OH g (noté avec un indice O$ ) associés respectivement aux équations de réactions Eq. I-52 et Eq. I-53. La réponse en courant d'une électrode réversible donnée à une polarisation (ou surtension) imposée est usuellement modélisée par l'équation de Butler-Volmer comme suit : i = i- Õ Où [Red]K€~ [Ox]K€~ ln(10) (E − E(Mp ) −ln(10) (E − E(Mp ) exp Õ Ù− exp Õ ÙÙ [Red]Ö [Ox]Ö β• β& Eq. I-54 Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 37 - i est la den s ité de c ourant nette apparente à l ' interface méta l - élect ro ly te [ A / m $ ] E est le potentiel de l'électrode sous polar isation [V] i- est la densité de courant d'échange de l'électrode [A/m $ ] E(Mp est le potentiel réversible à l'équilibre de l'électrode [V] β• et β& sont les pentes de Tafel anodique et cathodique de l'électrode [V/dec] [Red]K€~ [Ox]K€~ sont respectivement les concentrations en espèces réduites et oxydées à la surface de l'électrode [mol/mƒ ] [Red]Ö et [Ox]Ö sont respectivement les concentrations maximales en espèces réduites et oxydées disponibles dans l'électrolyte, « loin » de l'interface [mol/m ƒ ] Le potentiel réversible du fer étant inférieur au potentiel réversible du dioxygène (E ́s > EÚM ), le couplage électrique de ces deux électrodes réversibles entraîne : - Une polarisation anodique du fer (anode) et donc sa dissolution accélérée - Une polarisation cathodique et donc la réduction du dioxygène dissous (cathode). La Figure I-5 illustre l'établissement de l'état d'équilibre dynamique du système de corrosion uniforme associé au système mixte Fer-Dioxygène (courbe grise), désigné par système Fe − O$ par la suite, résultant du couplage électrique des deux électrodes considérées comme infiniment proches ; la courbe rouge correspondant à l'électrode Fe $e /Fe et la courbe bleue au couple O$ /OH g. Figure I-5 Équilibre d'un système de corrosion uniforme (en gris) résultant du couplage électrique des électrodes réversibles de fer (en rouge) et dioxygène (en bleu) En corrosion uniforme, impliquant l'absence de résistance électrolytique entre l'anode et la cathode, le couplage électrique des deux électrodes entraîne leurs polarisations réciproques vers un potentiel mixte (commun), qualifié de potentiel de corrosion E&'(( et compris entre les deux potentiels réversibles EÚM et E ́s. Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil Au potentiel de corrosion E&'((, les deux électrodes sont donc hors équilibre mais la densité de courant nette apparent du système de corrosion uniforme demeure nulle car les électrons libérés par la dissolution du fer sont consommés localement pour produire des ions hydroxydes. Cependant, les réactions anodique et cathodique n'impliquant pas les mêmes espèces chimiques, ce couplage entraine nécessairement une consommation irréversible de l'électrode de fer. La densité de courant anodique exprime la cinétique de dissolution du fer et est donc qualifiée de densité de courant de corrosion i&'((. En admettant que la polarisation subie par chaque électrode réversible est suffisamment forte (hypothèse probable au vu de la forte différence de potentiel entre les deux électrodes considérées), il est possible de négliger respectivement les termes cathodique et anodique des équations de Butler-Volmer relatives aux électrodes de fer et du dioxygène. Les densités de courant associées à la dissolution du fer, notée iÚM (Eq. I-55) à la réduction de du dioxygène, notée i ́s (Eq. I-56) s'expriment alors comme suit: iÚM = i-,ÚM exp Õ Et i ́s = −i-, ́s ln(10) (E − EÚM ) Ù β• [O$ ]K€~ − ln(10) ¤E − E ́s § exp Õ Ù [O$ ]Ö β& Eq. I-55 Eq. I-56 Où : - i-,ÚM et i-, ́s sont respectivement les densités de courant d'échange des électrodes réversibles de fer et de dioxygène [A/m $ ] EÚM et E ́s sont les potentiels réversible des électrodes de fer et de dioxygène [V] [O$ ]K€~ est la concentration en dioxygène dissous à l'interface acier-béton [mol/mƒ ] [O$ ]Ö est la concentration maximale de dioxygène dissous en solution [mol/mƒ ] β• et β& sont les pentes de Tafel anodique et cathodique respectivement associées aux réactions de dissolution de fer et de réduction du dioxygène [V/dec] La formulation du courant de réduction du dioxygène fait apparaître un rapport de concentration en dioxygène dissous qui peut être assimilé à la disponibilité en dioxygène à l'interface acier-électrolyte. En effet, le dioxygène dissous n'est pas toujours disponible en grande quantité dans l'électrolyte limitant de ce fait la cinétique de la réaction cathodique. Cette disponibilité est conditionnée par l'aptitude du dioxygène à diffuser au travers du matériau (béton ou sol) depuis le milieu aérien extérieur. Le comportement électrochimique du système de corrosion uniforme est alors décrit comme la somme algébrique des sités de courant associées à la réaction anodique de dissolution du métal et à la réaction cathodique de réduction du dioxygène (Eq. I-57) : i = iÚM + i ́s Eq. I-57 Où i est la densité de courant nette apparente traversant l'interface du système de corrosion uniforme [A/m$ ]. Corp thé orique à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 39 Par convention, on considère que le vecteur normal sortant de l'interface vers l'électrolyte définit le sens du courant positif. La valeur algébrique du courant anodique est donc comptée positivement et celle du courant cathodique négativement. A l'équilibre dynamique du système de corrosion (les électrodes réversibles sont quant à elle hors équilibre), les cinétiques anodique et cathodique sont égales en valeur absolue (iÚM = −i ́s ) et la densité de courant nette apparente est nulle (i = 0). Cette dernière équation constitue une formulation à l'échelle globale du système de corrosion uniforme. Il est aisé de passer d'une formulation à l'autre en reliant les paramètres électrochimiques du système uniforme (E&'(( ; i&'(( ) aux paramètres électrochimiques associés aux électrodes de fer (EÚM ; i-,ÚM ) et Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 40 du dioxygène (E ́s ; i-, ́s ). Les pentes de Tafel anodique et cathodique sont inchangées dans les deux formulations. A l'équilibre dynamique du système de corrosion uniforme (E = E&'(( ), le courant anodique produit par l'oxydation de l'électrode de fer (i• = i&'(( ) est compensé par le courant cathodique de réduction du dioxygène ( i& = −i&'(( ) (Eq. I-62) : ln(10) (E&'(( − EÚM ) i&'(( = i-,ÚM exp Õ Ù β• [O$ ]K€~ − ln(10) ¤E&'(( − E ́s § = −i-, ́s exp Õ Ù [O$ ]Ö β& Eq . I-62 Cette relation d'équilibre permet d'exprimer E&'(( en fonction des paramètres électrochimiques des électrodes réversible selon l'équation (Eq. I-63) : E&'(( i-, ́ [O ] ln Ži s $ K€~ • E E ́ β• β& -,ÚM [O$ ]Ö ÚM = Ü + + sÝ β• + β& ln(10) β• β& Eq. I-63 Une formulation à l'échelle des électrodes réversibles est cependant indispensable pour modéliser l'influence des concentrations sur la cinétique de corrosion de l'acier. Néanmoins, il est important de préciser que les paramètres électrochimiques mesurés expérimentalement par un essai de polarisation sur un échantillon d'acier placé dans un électrolyte (béton ou sol) correspondent systématiquement propriétés du système de corrosion, ou système mixte Fe − O$, à savoir (E&'((, i&'(( ). La formulation de Butler-Volmer en électrodes réversibles présente également l'avantage de pouvoir différencier le comportement électrochimique de l'acier actif du comportement de l'acier passif en jouant uniquement sur la pente de Tafel anodique β•, toutes les autres propriétés des électrodes réversibles étant maintenues constantes. La Figure I-6 illustre qualitativement l'influence du coefficient de Tafel anodique associé à la réaction d'oxydation du fer sur la courbe de polarisation du système de corrosion uniforme. Une faible valeur de β• permet de générer une courbe de polarisation typique d'un acier actif (en rouge brique) et une forte valeur traduit un comportement passif (en bleu nuit). Dans un électrolyte basique comme la solution interstitielle du béton, l'acier passif est recouvert d'une couche d'oxydes protectrice réduisant de ce fait la réaction d'oxydation du fer à une cinétique très lente. Une forte valeur de β• permet donc de retranscrire qualitativement le comportement électrochimique de l'acier passif en limitant significativement la raideur de sa réponse anodique. A l'inverse, la dissolution de cette couche protectrice par des agents agressifs exogènes comme les ions chlorure conduit nécessairement à une diminution de la résistance de transfert de charge ; la réaction de dissolution du fer en cations métalliques est alors fortement catalysée et l'acier au contact de la solution interstitielle se corrode à des cinétiques plus rapides. Le comportement électrochimique de l'acier actif peut alors être modélisé par un coefficient cinétique β• bien plus faible, augmentant de ce fait la raideur de sa courbe anodique. La Figure I-6 met alors en évidence la hiérarchie entre les propriétés électrochimiques (E&'(( ; i&'(( ) des systèmes de corrosion uniforme associés à l'acier actif et l'acier passif comme suit : Et E&'((,l < E&'((,n i&'((,l > i&'((,n Eq. I-64 Eq. I-65 Un système de corrosion uniforme actif se caractérise alors par un potentiel de corrosion plus électronégatif (Eq. I-64) et une cinétique de corrosion naturelle plus rapide qu'un système de corrosion passif (Eq. I-65). Corpus théorique dédié à la simulation numérique corrosion de l'acier dans les structures de génie civil 42 En réalité, les paramètres électrochimiques ne sont pas fixes au cours du processus de corrosion de par l'évolution des concentrations locales en espèces impliqués dans les réactions. pendant, de manière qualitative, cette hiérarchie entre les paramètres (E&'(( ; i&'(( ) des systèmes de corrosion actif et passif est systématiquement observée. Dans le béton, on note que les propriétés électrochimiques de l'acier rencontrées dans la littérature varient considérablement d'un auteur à l'autre [45]. Le Tableau I-4 présente les gammes de ces paramètres qui sont couramment utilisées comme données d'entrée de simulations numériques par différents auteurs [45][46][47][48][49][50][51]. État actif État passif [mV/ECS] E&'(( [μA/cm$ ] i&'(( [mV/dec] β• [mV/dec] β& [−100 ; 400] [10gAE ; 10g$ ] [75 ; ∞] [116 ; 200] [−1200 ; −660] [0,1 ; 10] [0,1 ; 91] [166 ; ∞] Tableau I-4 Gamme de paramètres électrochimiques utilisés dans la littérature scientifique par différents auteurs I.1.2.3.Système de corrosion galvanique Dans le cas des structures de génie civil, la corrosion galvanique ou localisée se caractérise par le couplage de deux systèmes de corrosion uniforme spatialement séparés dans un électrolyte résistif. Dans le béton, l'acier localement corrodé présente un comportement électrochimique différent de celui du reste du ferraillage à l'état passif. Les zones actives et passives n'étant que des surfaces différentes d'un même réseau d'armatures métalliques, le transport d'électrons des unes vers les autres est possible via le réseau métallique. Ainsi, les conditions d'une corrosion galvanique entre zones actives et zones passives sont réunies. Les effets ohmiques n'étant pas négligeables dans le béton, les sites anodiques et cathodiques spatialement distants sur la surface de l'armature ne peuvent se rejoindre au même potentiel ; il s'ensuit un gradient de potentiel dans le volume de béton et un courant de corrosion galvanique (parfois qualifié de courant de macrocellule). La résistivité de l'électrolyte constitue donc un des paramètres déterminant l'équilibre dynamique d'un système de corrosion galvanique. De par les hiérarchies évoquées dans la section précédente concernant les comportements électrochimiques, l'acier actif constitue l'anode et l'acier passif cathode du système de corrosion galvanique ainsi formé. Les électrons produits par la dissolution du fer au niveau de l'acier actif transitent par le réseau d'armatures pour être consommés par la réduction du dioxygène au niveau des sites passifs. La corrosion galvanique se distingue de la corrosion uniforme par un champ de potentiel non uniforme dans le volume de béton, impliquant l'existence d'un champ électrique, lequel conduisant à l'établissement de lignes de courant ionique entre les sites actifs et les sites passifs. Comme évoqué, la résistivité de l'électrolyte constitue donc un des paramètres déterminants de l'équilibre dynamique d'un système de corrosion galvanique. Cette propriété du béton influence directement la cinétique de dissolution locale de l'acier actif de par son effet direct sur l'intensité du courant galvanique circulant dans le béton, mais également sur les amplitudes de polarisation subies par les sites actifs et passifs. A noter ici que les propriétés électriques de l'acier et leur impact sur l'intensité du courant électronique sont systématiquement négligés. En effet, la résistivité de l'acier étant inférieure de plusieurs ordres de grandeur (8 à 10) à celle du béton, son impact sur la résistance globale de la cellule électrochimique globale est insignifiant. La Figure I-7 représente schématiquement le concept de corrosion galvanique entre acier actif et acier passif et illustre la distribution spatiale des courants de macrocellule ( gal vanique) et de microcellule (uniforme). Figure I-7 Illustration de la distribution volumique du courant de macrocellule et de microcellule induit par la dépassivation locale de l'acier Du fait de la spatialité des phénomènes en jeu, la modélisation de la corrosion galvanique nécessite une représentation tridimensionnelle. La simulation numérique par des méthodes de calcul avancées (éléments finis, volumes finis) est donc indispensable pour appréhender le fonctionnement d'un système de corrosion galvanique. Cependant, une représentation monodimensionnelle peut être proposée, à titre pédagogique, pour décrire le principe d'établissement d'un équilibre galvanique entre acier passif et actif. Cela permet de caractériser cet équilibre en associant à l'acier actif un potentiel El et à l'acier passif un potentiel En. En réalité, le problème étant tridimensionnel, l'équilibre galvanique est défini par un champ de potentiel El sur la surface active et un champ de potentiel En sur le site passif. La différence de potentiel libre entre l'acier actif et l'acier passif ¤E&'((,l < E&'((,n § connectés électriquement entraîne leurs polarisations réciproques. L'acier actif subit une polarisation anodique (surtension positive : η• = El − E&'((,l > 0 ) et voit son potentiel E• augmenter ; à l'inverse, l'acier passif subit une polarisation cathodique (surtension négative : η& = En − E&'((,n < 0 ) et voit son potentiel En diminuer. structures Dans le cas de la corrosion galvanique, l'équilibre est déterminé par l'égalité des intensités de courant anodique et cathodique et non des densités de courant, car les surfaces actives et passives sont généralement différentes. Lorsque l'équilibre est atteint, le courant anodique I• débité par le site actif est contrebalancé par le courant cathodique I& reçu par le site passif (Eq. I-66) : I• = −I& = I ̄•&(' Eq. I-66 En − El = RM. I ̄•&(' Eq. I-67 L'équilibre galvanique est donc caractérisé par le courant de macrocellule I ̄•&(' qui définit la cinétique globale de dissolution de l'acier actif. Cependant, cette équation est vérifiée par une infinité de couple (El ; En ) et est donc insuffisante, à elle seule, pour déterminer l'équilibre galvanique. Pour déterminer la solution de ce problème, une équation complémentaire est donc nécessaire : la loi d'Ohm. Le courant ionique circulant dans la branche électrolytique du circuit galvanique rencontre en effet une résistance ohmique RM due à la résistivité du milieu entre les sites anodique cathodique. L'application de la loi d'Ohm permet ainsi de déterminer (au sens mathématique) l'équilibre galvanique en reliant la différence de potentiel En − El au courant de macrocellule I ̄•&(' (Eq. I-67) : Il existe ainsi un couple unique (El ; En ) solution des équations (Eq. I-66) et (Eq. I-67). L'équilibre galvanique est donc défini par un système non linéaire à deux équations. Dans un système en trois dimensions, l'équilibre galvanique est défini par une gamme de couples (El ; En ) variant dans l'espace, justifiant ainsi l'utilisation de méthodes numériques avancées pour rechercher une solution. Selon le niveau de polarisation subie par l'acier actif, un courant résiduel de microcellule est possible en plus du courant de corrosion galvanique. L'intensité de ce courant I}K&(' dépend de la surtension anodique η• subie par l'acier actif lors du couplage avec l'acier passif. Cette intensité est cependant d'autant plus faible que la polarisation est forte. Pour une forte polarisation, la contribution de la composante de corrosion uniforme peut être négligée [49]. L'intensité du courant de corrosion total I&'(( est la somme des composantes de macrocellule I ̄•&(' et de microcellule I}K&(' (Eq. I-68): I&'(( = I ̄•&(' + I}K&(' Eq. I-68 La Figure I-8 ci-dessous est une représentation de la polarisation mutuelle entre acier actif et acier passif dans un cas simplifié de lignes de courant unidirectionnelles (exemple : une plaque d'acier passif face à une plaque d'acier actif parallèle). Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 45 Figure I-8 Polarisations mutuelles de l'acier actif et de l'acier passif dans une représentation 1D de la corrosion galvanique I.1.2.4.Cinétique de corrosion pilotée par le transfert de masse Dans l'équilibre d'un système de corrosion uniforme ou localisée, la réaction cathodique joue un rôle de premier plan. Physiquement, le courant cathodique traduit la quantité de dioxygène réduit par unité de temps à l'interface métal-électrolyte. Dans la partie précédente, l'établissement d'un système de corrosion supposaient implicitement une quantité illimitée de dioxygène disponible pour la réaction cathodique. En pratique, le dioxygène dissous n'est pas toujours disponible en grande quantité dans la solution en contact avec l'électrode métallique. Cette disponibilité est conditionnée par l'aptitude du dioxygène à diffuser au travers de l'électro te depuis le milieu aérien extérieur. Dans le cas d'une quantité de dioxygène limitée, la courbe cathodique perd son caractère exponentiel au-delà d'un certain niveau de polarisation et on observe une saturation du courant cathodique comme illustrée par la Figure I-9. Dans la littérature scientifique, cette valeur de saturation est définie comme le courant cathodique limite iJK}, ́s [A/m$ ]. La formulation de Butler-Volmer présentée précédemment (Eq. I-61) peut être modifiée pour tenir compte du phénomène de saturation du courant cathodique conditionnée par la cinétique de diffusion du dioxygène jusqu'à l'interface métal-électrolyte, siège de la réaction cathodique (Eq. I-69) : ln(10) (E − E&'(( ) i = i&'(( exp Õ Ù− β• ln(10) (E − E&'(( ) • β& i ln(10) (E − E&'(( ) 1 + i &'(( exp Ž− • β& JK}, ́s exp Ž− Eq. Figure I-10 Effet de la disponibilité en dioxygène sur la courbe de polarisation d'un acier passif au travers du courant limite cathodique iJK}, ́s Corpus théorique dédié à la simulation numérique de la corrosion de l'acier dans les structures de génie civil 47 Le courant limite iJK}, ́s peut être déduit de la première loi de Fick (Eq. I-70) et de la loi de Faraday (Eq. I-71 ) comme suit : J ́s = −D ́s ∇[O$ ] iJK}, ́s = ã4 F Jäs ã Où - Eq. I-70 Eq. I-71 JO2 est le vecteur flux de dioxygène à l'interface métal-électrolyte [mol/(m $. s)] D ́s est le coefficient de diffusion du dioxygène à travers le matériau [m $ /s] [O$ ] le champ de concentration en dioxygène [mol/m ƒ ]. On note ici que les quantités vectorielles sont représentées en caractères gras dans l'ensemble du document. Raupach a étudié expérimentalement la cinétique de corrosion de l'acier dans le béton en lien avec la diffusion du dioxygène et a proposé une simplification de l'expression du courant limite en considérant un profil de concentration linéaire entre la surface du parement et l'interface acier-béton [52]. Il émet notamment l'hypothèse selon laquelle tout le dioxygène est consommé au niveau de l'interface acier/béton. Cette hypothèse est uniquement valable lorsque le transfert de masse contrôle complètement la cinétique du système de corrosion. Il estime alors le courant cathodique limite s'exprime selon la relation (Eq. I-72): iJK}, ́s = −4 F D ́s [ O $ ] Ö A& e Aè Eq. I-72 Où [O$ ]Ö est la concentration en dioxygène à la surface du parement [ mol/ m ƒ ], e est l'enrobage nominal des aciers [m], A& / A è est le ratio de surface de béton exposé à l'air par rapport à la surface d ' échange électrochimi que (ce rapport est pris égal à 1 si la surface de béton est supérieure à la surface d'acier s).
27,794
26/hal.archives-ouvertes.fr-hal-02116776-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,949
3,224
Identification Bayésienne de l'effet de chargement statique et cyclique sur le mécanisme de pénétration des ions chlorure dans le béton Henriette Imounga, Thanh-Binh , Emili dentification bayésienne de l'effet de chargement statique et cyclique sur le mécanisme de pénétration des ions chlorures dans le béton H.M. IMOUNGA1,2, T.B. TRAN2, E. BASTIDAS-ARTEAGA2, R. MOUTOU PITTI3,4, S. EKOMY ANGO4, X.H. WANG5, 1. USTM, BP 941, Franceville, Gabon, [email protected] 2. Université de Nantes, GeM, BP 92208, 44000 Nantes, France 3. UCA, Institut Pascal, BP 10448, 63000 Clermont Ferrand, France 4. IRT, CENAREST, Libreville, Gabon 5. Université Maritime de Shanghai, Shanghai 201306, Chine Résumé : Les ouvrages offshores en béton armé sont soumis à des phénomènes couplés de corrosion et de fissuration due aux chargements, qui affectent leurs durabilités. Pour comprendre les effets de couplage, plusieurs essais expérimentaux ont été réalisés puis implémentés. Le modèle numérique élaboré est fait à partir des données de l'étude d'une poutre en béton armé de dimension 300x120x1500 mm soumise à des chargements statiques et cycliques, puis exposée dans un environnement contenant des ions chlorures. Il permet de mettre en évidence les effets du chargement sur le mécanisme de pénétration des ions chlorure dans le béton et d'identifier, par la méthode des réseaux bayésiens, un facteur d'accélération de la diffusion des ions chlorure dû au chargement. Les résultats obtenus indiquent que l'approche utilisée est capable d'intégrer des données des essais de chloration et chargement pour la détermination des paramètres probabilistes d'un modèle. Abstract: The off-shore structures in reinforced concrete are subjected to phenomenon coupled with corrosion and cracking due to loadings, which affect their durability. To understand the coupling effects, several experimental tests were carried out and implemented. The developed model is based on data from the study of a reinforced concrete beam of dimension 300x120x1500 mm; subjected to static and cyclic loadings, and then exposed in an environment containing chloride ions. It allows to highlight the loading effects on the mechanism of penetration of chloride ions into concrete and to identify, by using Bayesian Networks, a factor of acceleration of diffusion of chloride ions due to loading. The results obtained indicate that the approach proposed is capable of integrating data from chloride ingress and loading tests to identify the model parameters. Mots clefs : Réseaux bayésiens, chloration, béton armé, chargement cyclique, corrosion, fissuration de Mécanique 1 Introduction Le béton armé est un matériau résistant et durable qui est très utilisé dans la construction d'ouvrages d'arts. Cependant, les structures placées en zones côtières et offshores sont exposées au phénomène de corrosion induite par chloration. La pénétration des ions chlorure dans le béton est l'une des principales causes de dégradation des ouvrages en béton armé [1]. Pour les structures soumises à des chargements et exposées à des ions chlorure, l'interaction entre ces mécanismes peut accélérer le début de la corrosion [2]. Dans cette étude nous nous intéressons au couplage entre les chargements (cycliques et statiques) et les mécanismes de chloration sur une poutre en béton armé. L'objectif est donc d'identifier, à partir des données expérimentales et en utilisant l'approche des réseaux bayésiens, les paramètres d'un modèle de dégradation du béton ainsi que le facteur d'accélération de la diffusion des ions chlorures dû à la fissuration. La première partie de ce travail fait la description générale des essais expérimentaux en présentant le matériel, la méthode et les données d'inspection qui seront utilisées pour l'identification des paramètres (Section 2). Dans la section 3, l'implémentation numérique du réseau bayésien dans le logiciel Matlab est détaillée. Enfin les résultats sont présentés et discutés dans la section 4. 2.1 Description Générale Dans la partie expérimentale de l'étude, les échantillons de poutre en béton armé de dimension 300x120x1500 mm (fig. 1), dimensionnés selon les normes chinoises GB/T 50081-2016 [3], ont été soumis à des charges statiques (charge unique de 18kN) et de fatigue (500 000 cycles de chargement 5.4kN à 18kN) avant d'être exposées aux ions chlorures. Pour générer les fissures, chaque poutre est placée dans la configuration d'essai de chargement à trois points. Les déplacements à mi-portée et les points pivots des supports de chaque poutre ont été mesurés par des traducteurs de déplacement ; et une cellule de charge a été utilisée pour contrôler et enregistrer les magnitudes des charges statiques et cycliques [4]. Après les tests mécaniques, les poutres ont complètement été immergées dans une solution de NaCl à 3,5% ~ 5% et séchées à l'air ; ces cycles de mouillage/séchage se sont poursuivis pendant 388 jours [5]. Une fois les expositions aux chlorures terminées, des cylindres de φ100 × 120 mm ont été percés dans la longueur centrale 300mm et coupées en tranches de 10mm. Ces tranches ont été séchées au four et broyées en poudre pour faire un mélange complet [2]. Les poudres obtenues ont été utilisées pour mesurer la teneur totale en chlorures de béton à différentes profondeurs (5mm, 15mm, 25mm et 35mm). Trois groupes d'éprouvettes ont été étudiés dans les essais en fonction des conditions de chargement ; le groupe 1 pour les éprouvettes non chargés, les groupes 2 et 3 pour celles soumises respectivement à des chargements statiques et cycliques. Figure 1 – Dimensions de la poutre en béton armé 2.2 Résumé des résultats expérimentaux Les résultats des essais és dans cette section seront utilisés pour illustrer la méthodologie proposée pour l'identification du facteur d'accélération de diffusion des ions chlorure dans le béton. L'évolution de la moyenne et l'écart type des mesures de chlorure dans le béton en fonction de la profondeur de chaque mesure et selon les groupes est présentée dans la figure 2. On observe que les charges statiques et de fatigue augmentent la moyenne et l'écart type de la teneur en chlorures contenue dans le béton pour les profondeurs de béton supérieures à 15mm [2]. (a) (b) Figure 3 – Configuration des réseaux bayésiens sans chargement (a) et avec chargement (b) Le tableau 2 présente les modèles probabilistes (essais expérimentaux), utilisés pour générer 50000 valeurs aléatoires des paramètres Cs, D et α par la méthode du Latin Hypercube Simple (LHS). Ces valeurs nous permettent de calculer 50000 valeurs indépendantes de profiles en chlorure avec équation 1 qui sont utilisées pour calculer les évidences introduites dans le réseau bayésien. Les détails de la discrétisation et les informations à priori des différentes variables sont résumés dans les tableaux 3 et 4. Congrès Français de Méc Tableau 2 – Valeurs expérimentales pour générer les évidences Paramètres Cs (kg/m3) D (mm2/j) Sans chargement Moyenne Ecart type 6.58 1.17 0.94 0.52 Chargement statique Moyenne Ecart type 6.34 1.41 1.31 0.60 Chargement cyclique Moyenne Ecart type 7.05 1.17 1.65 0.77 Distribution Log normale Log normale Tableau 3 – Discrétisation des noeuds et information à priori de réseau bayésien 1 Paramètres Nombre d'états par noeud Distribution à priori Borne des noeuds Cs (kg/m3) D (mm2/j) C (xi, t) (kg/m3) 100 100 80 Uniforme Uniforme - [10-12 ; 20] [10-3 ; 2] [0 ; 10] Tableau 4 – Discrétisation des noeuds et information à priori de réseau bayésien 2 Paramètres Cs (kg/m3) Nombre d'états par noeud 100 D (mm2/j) 100 α C (xi, t) (kg/m3) 100 80 Distribution à priori Histogramme du test sans chargement Histogramme du test sans chargement Uniforme - Borne des noeuds [10-12 ; 20] [10-3 ; 2] [10-12 ; 10] [0 ; 10] 3.2 Procédure d'identification La méthodologie proposée pour identifier α est décrite dans la 4 la première étape consiste à identifier les paramètres Cs et D à partir des données des essais sans chargement. Comme information a priori de ces paramètres, la distribution uniforme est choisie pour ne pas biaiser le résultat d'identification du réseau bayésien [1]. Le facteur α est identifié dans l'étape 2 en utilisant les évidences des tests avec chargement (statique/cyclique). Les histogrammes de Cs et D a postériori dans l'étape 1 sont utilisés comme information à priori de l'étape 2 ; permettant ainsi d'améliorer d'avantage l'identification de ces deux paramètres aléatoires avec des données issues des essais de chargement. Etape 1 Etape 2 Information à priori Cs=Uniforme (min_Cs ; max_Cs) D=Uniforme (min_D ; max_D) Information à priori Cs=histogramme _Cs D= histogramme _D α=Uniforme (min_α ; max_α) Réseaux Bayésien pour le test sans chargement Mise à jour Evidences des tests sans chargement Réseaux Bayésien pour le test avec chargement statique/cyclique Mise à jour Evidences des tests avec chargement statique/cyclique Information à postériori Cs=histogramme _Cs D= histogramme _D Information à postériori Identification de α Figure 4 – Organigramme de la méthodologie proposée 4 Les moyennes et écarts types des paramètres Cs, D et α obtenus des réseaux bayésiens sont résumés dans le tableau 5 pour chacun des cas (sans chargement, chargement statique et cyclique). Les moyennes de Cs et D obtenues à partir du réseau bayésien sont très proches des valeurs données dans le tableau 2 ; par exemple pour Cs et les poutres non chargées nous avons une moyenne de 6.45 kg/m3 pour une moyenne expérimentale de 6.58 kg/m3. Pour les poutres chargées, les valeurs exactes du coefficient de diffusion D déterminées par le réseau bayésien, correspondent à la multiplication de α par D. La moyenne de D augmente avec le chargement, on passe de 0.95 mm2/j à 1.48 mm2/j (0.89 x 1.66) pour le chargement statique et à 1.89 mm2/j (0.99 x 1.91) pour le chargement cyclique. Les valeurs de α obtenues du réseau bayésien sont 1.66 et 1.91 respectivement pour les chargements statique et cyclique. L'on observe donc que les valeurs de D et α augmentent lorsque les poutres sont chargées (plus fissurées); plus fissures sont nombreuses et plus les valeurs de ces paramètres augmentent. Dans les deux cas de chargement, l'application des deux étapes de la méthodologie permet d'optimiser d'avantage l'identification des paramètres Cs et D en intégrant les résultats des essais avec et sans chargement. Tableau 5 – Moyennes et écarts types des valeurs à postériori Paramètres Cs (kg/m3) D (mm2/j) α Sans chargement Moyenne Ecart-type 6.45 1.79 0.95 0.42 - Chargement statique Moyenne Ecart-type 5.91 0.81 0.89 0.37 1.66 0.66 Chargement cyclique Moyenne Ecart-type 6.47 0.78 0.99 0.38 1.91 0.63 24ème Congrès Français de Mécanique Les histogrammes de α obtenus pour les différents chargements ont été ajustés à une distribution lognormal de moyenne 1.69 et 1.95, et d'écart-type etpour respectivement les chargements statique et cyclique, car elle fournissait la meilleure estimation du maximum vraisemblance [7]. Figure 5 – Histogrammes postériori de α pour les différents chargements 5 Conclusion L'étude propose une méthodologie pour l'identification d'un facteur d'accélération de la diffusion des ions chlorures dans le béton dû au chargement par l'approche bayésienne. La méthodologie a été illustrée et testée avec des données obtenues à partir d'une poutre en béton armé soumise à des chargements (statique et cyclique) et exposée à l'attaque des ions chlorures. Les moyennes des paramètres Cs et D obtenues, proches des valeurs théoriques, montrent qu'après chaque étape les informations des essais intégrées permettent d'optimiser l'identification de ces paramètres. Par ailleurs, l'équation de Fick utilisée dans la méthodologie, qui ne prend pas en compte le vieillissement du béton, limite la méthode d'identification ; il serait donc judicieux d'appliquer la méthodologie en considérant la complexité du matériau. L'identification probabiliste du paramètre d'accélération est cruciale pour améliorer l'évaluation du temps d'initiation de la corrosion. Ces résultats nous permettront, dans une prochaine étude, de déterminer l'estimation de la probabilité d'initiation de la corrosion, l'effet des mécanismes couplés de chloration et de fatigue sur la durée de vie des structures en béton et de faire l'estimation de l'amorçage et propagation de fissures dans le béton sous chargement cyclique. Remerciements Les auteurs tiennent à remercier la région Pays de la Loire pour le soutien financier du projet étoile montante BUENO 2018-20 (Béton dUrable pour l'EolieN Offshore). 24ème Congrès Français de Mécanique.
56,008
720774fd623a635e941a712dd96b9277_1
French-Science-Pile
Open Science
Various open science
2,021
Le rôle de la mémoire dans l'exploration du texte dramatique en classe de FLE
None
French
Spoken
1,864
3,288
CZU: 811 LE RÔLE DE LA MÉMOIRE DANS L’EXPLORATION DU TEXTE DRAMATIQUE EN CLASSE DE FLE Mariana CHIRIȚA Alecu Russo Bălți State University, Moldova [email protected] Abstract: The article examines the role memory plays in the process of acquisition of French as a foreign language while using drama in the classroom. The suggested activities are designed to help learners improve and train their memory while working with the play Cocorico by Sylvaine Hinglais. The activities can be used with all learners regardless of their language proficiency level. Keywords: memory, drama, FFL classroom. Chez les enfants, la mémoire est très forte; voilà pourquoi elle stimule à l’excès la fantaisie, qui n’est que mémoire, soit dilatée, soit composée. Giambattista Vico [Bagdasar et al., 1995: 333] En analysant l’affirmation de Giambattista Vico, nous pouvons constater que les enfants sont ceux qui jouissent d’une forte mémoire. Dans l’acception de l’auteur, notamment la mémoire forte stimule la fantaisie, qualifiée comme mémoire dilatée ou composée. Par conséquent, pour cultiver la créativité, il faut laisser la fantaisie errer à l’aide d’une mémoire bien entrainée. La définition de la mémoire comporte trois acceptions : «1. Activité biologique et psychique qui permet d’acquérir, de conserver et de restituer des informations. 2. Aptitude à se souvenir. 3. L’esprit, en tant que siège des souvenirs. » [Le petit LAROUSSE illustré : 716] En analysant la définition, nous observons que la mémoire constitue en même temps une activité biologique et psychique de l’être humain, une aptitude de celui-ci de se souvenir de quelque chose, mais aussi un centre des souvenirs. Appartenant au domaine de la psychologie, la mémoire est définie comme « la capacité et le processus psychologique de réflexion de l’expérience antérieure à travers la fixation, reconnaissance et reproduction des images sensorielles, des idées, des états affectifs. 47 Elle réalise la cohérence de la vie intérieure et des liaisons interdépendantes avec la réalité objective. » [Șchiopu et al., 1997: 439] Phénomène complexe, la mémoire assure la diffusion de l’expérience antérieure d’un individu à la suite de la réalisation de trois opérations : fixation, reconnaissance et reproduction de tout ce qu’il voit, à quoi il pense et de ce qu’il sent. U. Șchiopu avance par l’idée que «la mémoire est comme la colonne vertébrale de la personnalité, étant impliquée dans la formation de l’identité.» [Ibidem] Vraiment le rôle de la mémoire dans la construction de la personnalité est incontestable. Or, la présence dans la mémoire des événements, des états affectifs attestés dans le vécu de quelqu’un contribuent à l’éducation de la personne aux valeurs, c’est-à-dire à la construction de la verticalité de celle-ci. Si nous parlons de la typologie de la mémoire, alors dans LAROUSSE on distingue les types suivants: 1. „mémoire immédiate, dont la capacité est limitée; 2. mémoire à long terme, dont la capacité est illimitée; 3. mémoire épisodique, qui concerne les événements ponctuels; 4. mémoire sémantique, relative à des faits, à des connaissances générales; 5. mémoire déclarative (les savoirs); 6. mémoire procédurale (les svoir-faire); 7. mémoire inconsciente (qui influe sur l’activité psychique).” [Le petit LAROUSSE illustré : 716] La psychologue U. Șchiopu précise que la mémoire peut être : • « spontané, • involontaire, • verbale, • actionnelle, • affective, • volontaire, • intentionnelle. » [Ibidem] Quant au processus d’apprentissage, il faut préciser que tous les types de mémoires y sont impliqués. En ce qui concerne la didactique des langues, la mémoire jouit d’un rôle à part. Il s’agit de l’acquisition de différentes structures, éléments et codes, soit du domaine linguistique (phonétique, lexical, grammatical), soit culturel et civilisationnel, qui aident le locuteur à construire correctement son discours. 48 Nos activités visant l’impliquation de la mémoire dans l’exploration du texte dramatique seront conçues autour de la pièce Cocorico [Hinglais et al., 1999: 58-61]. Mais avant de passer au côté pratique, il faut préciser que les ressources déposées dans la mémoire, auxquelles l’apprenant doit faire appel lors du travail avec le texte dramatique, parcourent une longue voie. Il s’agit de quelques étapes, dont: 1. « l’encodage de l’information, ou constitutions des traces, qui largement automatique en MCT, est davantage sous le contrôle du sujet en MLT et est favorisé par la structuration de l’apport; 2. le stockage. Alors que la durée de conservation des informations issues de l’apport est très limitée en MCT, la capacité de stockage permanent est considérée comme illimitée; 3. la récupération, facilitée par des indications contextuelles associées à l’information à rappeler. » [Cuq et al., 2003: 163] De la multitude de typologies de la mémoire présentées dans la littérature de spécialité, nous nous axerons sur l’étude de quelques types de mémoires entrainés dans l’exploration du texte dramatique: 1. la mémoire affective; 2. la mémoire sensorielle; 3. la mémoire verbale; 4. la mémoire actionnelle. La mémoire affective fait appel au vécu affectif de l’apprenant. Elle libère l’imagination. Cette chose est possible grâce à un entrainement assidu. Il est à mentionner que tous les exercices doivent être réalisés en groupe. Si nous nous transférons dans le cadre qui vise l’exploration du texte dramatique, alors il faut citer les suivants types d’exercices qui contribuent au développement de la mémoire affective: • les exercices de décontraction; • l’improvisation. Quant aux exercices de décontraction, A. Cormanski propose le jeu De la tête aux pieds, dans le but de repérer et éliminer toute tension. Les exercices d’improvisation contribuent, à leur tour, à la libération de tout ce qu’on a en soi. Par exemple : • Le jeu De la tête aux pieds [Cormanski, 2005: 17]: Déroulement S’asseoir sur une chaise, mettre le dos des mains à plat sur les genoux, paumes tournées vers le ciel, épaules lâches, jambes écartées. 49  Visage Remuer la bouche en se concentrant sur les commissures des lèvres. Pincer celles-ci en tendant la bouche fermée vers l’avant, puis la relâcher. En relâchant les lèvres, les étudiants émettront un son choisi du titre de la pièce « Cocorico ».  Corps Toujours assis sur la chaise, lever lentement le bras à la verticale, puis l’épaule comme si un fil invisible le tirait par le haut. Quand le fil invisible tire l’épaule en haut, l’étudiant prononce le mot « cocorico ».  Tête Les étudiants déplacent les têtes délicatement de droite à gauche dans un mouvement très lent. Chaque fois qu’ils déplacent la tête, ils prononcent cocorico en ajoutant des syllabes : co-/coco-/cocori/cocorico.  Voix Se tenir debout, jambes écartées les talons proches des pieds de la chaise. S’asseoir sur la chaise et se lever lentement. Répéter le mouvement en prononçant au moment de l’expiration le son [o]. • Improvisation. Cet exercice permet aux étudiants de faire appel à leurs sensations et émotions : Par exemple : Vous allez chez le docteur. Vous ne pouvez pas parler. Tâchez de lui expliquer vos problèmes en utilisant d’autres ressources de communication. Ou Vous avez les mêmes problèmes que les personnages de la pièce. Vous allez chez le docteur. Discutez avec lui. La mémoire sensorielle fait appel aux sensations visuelles, auditives, olfactives ou tactiles. Pour entrainer ce type de mémoire, nous proposons la méditation. Par exemple : - Par rapport aux personnages de la pièce, vous êtes bien portants. - Vous pensez à un dîner avec un menu copieux. - Le menu contient des produits qui vous aident à maintenir la santé du corps et de l’esprit. - Vous sentez l’odeur des plats. Pendant ce type d’exercice, il faut garder le silence. C. GrossetBureau précise que cet exercice sur les perceptions « rend l’élève plus attentif sur à ce qu’il vit dans sa vie quotidienne » [Grosset-Bureau et 50 al., 2000 : 49]. L’auteur propose de suivre plusieurs étapes pendant le jeu : 1. Les étudiants doivent être allongés sur le sol, les bras le long du corps. 2. Les yeux sont fermés et les muscles détendus pendant une ou deux minutes. 3. Ils s’éveillent et s’asseyent doucement. La mémoire verbale est nécessaire pour retenir un texte. Pour qu’un texte soit mieux retenu, il faut l’articuler. Pour bien mettre en oeuvre cet exercice (l’articulation) C. Grosset-Bureau (cf C. GrossetBureau et al., 2000 : 79-81) suggère de suivre 3 étapes : 1. La sonorisation des sons-voyelles. Par exemple : - Identifier les sons-voyelles dans la pièce à étudier ([a], [e], [i], [o], [u]). Articulez-les en vous regardant dans un mirroir. Inspirer puis chanter les sons. - Projeter des syllabes. En inspirant da-, ensuite peu à peu en expirant de-, di-, do-, du-. - Articuler de petites phrases qui présentent des difficultés de prononciation. (LE MARI : Coco... Cocoriri... Cocori...). 2. La sonorisation des sons-consonnes. Par exemple : - Prendre conscience de certaines consonnes, comme g (consonne sonore)/ c (consonne sourde) :ga, go, gu/ca-, co-, cu. 3. L’intonation. Par exemple : Dire la même phrase sur un ton exclamatif, interrogatif : « LA FEMME : [...] Quand il était petit, elle ne le lâchait pas d’une semelle. [...] » Dans la catégorie de la mémoire verbale, nous pouvons aussi ajouter les techniques de lectures comme : - la lecture à haute voix; - la lecture écrémage; - la technique des mots-clés; - la méthode des associations; - la méthode vocale (apprendre le texte par coeur à haute voix, ligne par ligne, sans intonation), etc. La mémoire actionnelle implique le mouvement. Pour mieux retenir le texte et jouer son rôle, les étudiants peuvent : 51 - dire leurs répliques en bougeant, en marchant, en courant, en dansant, etc. - soit - choisir les actions accomplies par les personnages de la pièce et les mettre en oeuvre (par exemple : aller chez le docteur, mener une discussion avec le docteur, s’énerver, etc). En conclusion, nous pouvons affirmer que la mémoire jouit d’une grande importance dans le processus d’exploration du texte dramatique. De la multitude des types de mémoires, impliqués dans ce processus, nous avons choisi de décrire seulement quelques-uns. Bien sûr qu’il y a beaucoup plus d’exercices et des techniques à présenter. On peut aussi intervenir dans le parcours de ceux présentés par nous et de les adapter à son public cible. Quand même, il faut préciser que pour l’étape de la lecture et de la compréhension du texte dramatique, on fait appel plutôt à la mémoire verbale. Pour entrainer le côté de la représentation, on impliquera la mémoire affective, la mémoire sensorielle et la mémoire actionnelle. Bref, les ressources de la mémoire, quelle que soit leur nature, aident les étudiants lors du processus d’exploration du texte dramatique à mieux : - retenir les répliques, - comprendre et construire son personnage, - jouer le spectacle. Bibliographie : 1. Bagdasar N., Bogdan V., Narly C., Antologie filosofică, București: Editura UNIVERSAL DALSI, 1995. - 655 p. 2. Cormanski, Alex, Techniques dramatiques: activités d’expression orale, Paris : Hachette Livres, 2005. – 126 p. 3. Cuq, Jean-Pierre et al., Dictionnaire de didactique du FLE, Paris : CLE International, 2003. – 303 p. 4. Grosset-Bureau, Claude, Christophe Suzanne, L’expression théâtrale au cycle 3, Paris : BORDAS, 2000. - 170 p. 5. Hinglais, Sylvaine, Liberman, Myrtha, Pièces et dialogues pour jouer la langue française, Paris : Retz, 1999. – 206 p. 6. Le petit LAROUSSE illustré, Paris : LAROUSSE, 2013. - 2016 p. 7. Șchiopu, Ursula (coord.), Dicționar de psihologie, București: Editura Babel, 1997. – 740 p. 52.
31,810
02/tel.archives-ouvertes.fr-tel-02479851-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,769
14,179
9 CHAPITRE I : INTRODUCTION GÉNÉRALE Figure 2 : Modélisation de différentes trajectoires futures de la température globale moyenne à la surface de la Terre. A : Les prédictions dépendent du scénario considéré pour conjecturer les émissions futures de gaz à effet de serre, ici l'exemple de la concentration atmosphérique en CO2. Ces scénarios, au nombre de quatre, intègrent des considérations sociétales, économiques et politiques pour prédire l'action future de l'Homme sur le climat. Le scénario le plus optimiste (RCP 2.6) prédit une rapide stabilisation de la teneur de l'air en CO2, en lien avec des actions entreprises dans le but de maintenir le degré de réchauffement à moins de 2°C par rapport à la période préindustrielle. A contrario, le scénario le plus pessimiste (RCP 8.5) stipule une absence d'efforts pour contenir la libération massive de gaz à effet de serre, impliquant des émissions croissantes et une stabilisation beaucoup plus tardive de la concentration en CO2 atmosphérique. B : Les trajectoires des concentrations futures en CO2 atmosphérique sont ensuite incorporées dans des modèles climatiques permettant de simuler plusieurs évolutions futures de la température globale moyenne sur Terre. Les courbes représentent la différence de température globale moyenne prédite par rapport à la période 1986-2005 (les zones colorées autour des courbes matérialisent l'incertitude liée au modèle utilisé). Il est important de noter que plus la projection des températures se fait sur une échéance lointaine, plus les scénarios divergent dans leurs projections, en particulier le scénario RCP 8.5 par rapport aux trois autres. D'après les dernières simulations numériques du climat en date (basées sur l'utilisation de la génération de modèles climatiques la plus récente : CMIP6), l' gmentation de température globale moyenne d'ici 2100 pourrait dépasser le seuil des +7°C (scénario RCP 8.5), et se poursuivre pour les siècles suivants. Modifié d'après le dernier rapport de l'Intergovernmental Panel on Climate Change (2014). 10 CHAPITRE I : INTRODUCTION GÉNÉRALE 1.2. Des subtilités liées à l'échelle spatio-temporelle d'étude : modification de la variabilité des températures Une autre facette du changement climatique est celle d'une modification de la variabilité des températures à différentes échelles de temps, dont deux seront mentionnées ici. La première échelle temporelle d'étude est intra-journalière, et fait référence aux fluctuations quotidiennes des températures. À cet égard, il a été démontré qu'en de nombreux points de la surface du globe, une manifestation tangible du réchauffement climatique est représentée par une altération de l'amplitude des fluctuations thermiques journalières (différence entre températures maximale et minimale journalières) (Braganza et al., 2004; Easterling et al., 1997; Karl et al., 1993; Wang and Dillon, 2014). Cette dernière peut ainsi conduire à une contraction (si la température minimale journalière augmente plus fortement que la température maximale) ou à un élargissement (dans le cas inverse) de l'amplitude des fluctuations thermiques quotidiennes (Easterling et al., 1997). Ces modifications thermiques sont la résultante de changements des caractéristiques physiques définissant un climat particulier, comme la couverture nuageuse, la teneur de l'atmosphère en aérosols, ou le refroidissement de surface dû aux précipitations (Easterling et al., 1997; Karl et al., 1993). L'intérêt porté à la variabilité thermique intra-journalière comme métrique permettant de caractériser les conséquences du réchauffement sur les climats terrestres remonte aux années 1990. Les analyses, alors conduites avec des données compilées à une échelle mensuelle, révélaient une tendance globale à la diminution de l'amplitude thermique journalière dans de nombreuses localités du globe (Easterling et ., 1997). Toutefois, ces analyses ont été limitées par la discordance entre l'échelle temporelle à laquelle les données climatiques étaient collectées et le degré de précision requis pour mettre en exergue des changements se produisant à un niveau, particulièrement fin, de variabilité thermique à l'échelle d'une journée (Wang and Dillon, 2014). Plus récemment, l'augmentation de la résolution temporelle des analyses climatiques (intégration et traitement de données collectées à une fréquence quotidienne) a permis de nuancer les conclusions faites par les études antérieures, en démontrant qu'une augmentation de l'amplitude thermique journalière s'est produite dans plusieurs régions du monde, en particulier dans les zones polaires (en moyenne +1.4°C sur la période 1975-2013) et tempérées (+1.0°C sur la même période) (Wang 11 CHAPITRE I : INTRODUCTION ÉNÉRALE and Dillon, 2014). Ainsi, les patterns de réponse de l'amplitude thermique journalière au réchauffement climatique semblent plutôt tenir de l'idiosyncrasie que de la généralité, avec une importante variabilité dans l'espace. La seconde échelle temporelle d'étude de la variabilité thermique renvoie aux événements extrêmes se produisant à l'échelle de plusieurs jours. À ce niveau, la communauté de climatologues s'accorde à dire qu'une augmentation du nombre de jours particulièrement chauds (ainsi qu'une diminution du nombre de jours remarquablement froids) s'affirme comme une tendance presque généralisée du changement climatique à la surface du globe (IPCC, 2014). L'exemple le plus probant pour illustrer cette altération de la variabilité thermique en lien avec les perturbations d'origine anthropique est certainement celui des vagues de chaleur comme celles survenues en France (2003), en Russie (2010) ou très récemment en Europe (2019). Non seulement la fréquence d'occurrence de ces événements extrêmes (qui a, pour certaines localités, doublé depuis le milieu des années 1950), mais également leur intensité et leur durée, sont supposées augmenter dans les décennies à venir (Easterling et al., 2000; Meehl and Tebaldi, 2004; Perkins et al., 2012). L'amplitude de cette augmentation va probablement dépendre du degré de réchauffement à la surface du globe, laissant suggérer un lien positif entre les intensités des stress engendrés par ces différentes facettes du changement climatique sur les populations humaines et les écosystèmes (Dosio et al., 2018). Par exemple, sous le postulat d'un réchauffement global de +1.5°C à l'horizon 2100, il est attendu que 13.8% de la population mondiale se retrouve exposée à une sévère vague de chaleur au moins une fois tous les cinq ans (alors que ce pourcentage est que nul pour la période 1976-2005). Lorsque le scénario choisi est celui d'un réchauffement global de +2°C pour la même échéance, alors cette proportion est presque triplée (36.9%) (Dosio et al., 2018). D'un point de vue plus qualitatif, les caractéristiques de la vague de chaleur risquent aussi d'évoluer étroitement en parallèle avec le réchauffement global. Par exemple, l'augmentation de l'intensité des vagues de chaleur (valeurs maximales de température enregistrées durant l'épisode caniculaire) devrait être 0.5 à 1.5°C supérieure à l'augmentation de la température globale moyenne (Perkins-Kirkpatrick and Gibson, 2017). De la même façon, la durée de la vague de chaleur devrait s'accroître de 2 à 10 jours par degré de réchauffement climatique global (Perkins-Kirkpatrick and Gibson, 2017). 2. DE L'INTÉRÊT PORTÉ AU CHANGEMENT CLIMATIQUE EN ÉCOLOGIE : EFFETS DU RÉCHAUFFEMENT SUR DIFFÉRENTS NIVEAUX D'ORGANISATION DU VIVANT 2.1. Biodiversité et extinction d'espèces Depuis les années 2000, les preuves des multiples incidences du réchauffement climatique sur les différents niveaux d'organisation du vivant se sont accumulées (Fig.3) (Bellard et al., 2012; Hughes, 2000; Parmesan, 2006; Walther et al., 2002). Il ne subsiste aujourd'hui plus aucun doute quant à la réalité de la menace posée par ce phénomène global pour la pérennité des espèces et la biodiversité planétaire (Bellard et al., 2012; Maclean and Wilson, 2011; Thomas et al., 2004; Urban, 2015). La rapidité à laquelle le changement climatique s'opère pourrait être, pour bon nombre de taxons, en discordance avec l'échelle de temps inhérente aux processus évolutifs, beaucoup plus longue (Chevin et al., 2010). Ainsi, de nombreuses espèces se retrouvent sujettes à un risque d'extinction du fait de la contraction de leur aire de distribution, de la réduction de l'abondance de leurs populations, et de la perturbation des relations interspécifiques induites, au moins en partie, par les modifications de température se produisant dans leur environnement (Cahill et al., 2013; Koh et al., 2004; Thomas et al., 2006). En effet, le déclin de la biodiversité actuellement enregistré est un phénomène aux origines multiples, puisqu'il est la conséquence de plusieurs facteurs de changement global (perte et destruction des habitats, réchauffement climatique, invasions biologiques) agissant bien souvent de concert et de manière synergétique 13 CHAPITRE I : INTRODUCTION GÉNÉRALE (Brook et al., 2008). Une méta-analyse récente, conduite à partir 'un ensemble de 131 études, a estimé que 7.9% des espèces pourraient, dans les prochaines décennies, disparaître en conséquence du changement climatique (taux d'extinction moyen sur les 131 études compilées) (Urban, 2015). Cette valeur est dépendante du degré de réchauffement climatique (scénario socio-économique envisagé pour les trajectoires futures d'émissions de gaz à effet de serre et de température globale moyenne), car l'extinction des espèces est supposée être un phénomène augmentant exponentiellement avec l'intensité du réchauffement global. Ainsi, les taux d'extinction peuvent atteindre 16% dans le cas du scénario prédisant la plus forte hausse de température moyenne d'ici la fin du siècle (RCP 8.5) (Urban, 2015). 14 CHAPITRE I : INTRODUCTION GÉNÉRALE Figure 3 : Schéma simplifié représentant les effets en cascade du réchauffement climatique sur les différents niveaux d'organisation du vivant parmi les plus étudiés en écologie. Au niveau individuel (organisme), l'augmentation des températures engendre des modifications physiologiques et comportementales ayant des incidences sur la performance. Ces modifications de performance individuelle conditionnent ensuite la manière dont les populations et les espèces peuvent répondre au réchauffement : altération de la phénologie ou déplacement des aires de distribution pour retrouver des conditions thermiques favorables, persistance in situ face à des conditions thermiques changeantes, assurée par des mécanismes évolutifs et/ou plastiques. Les réponses des espèces et leurs populations influencent à leur tour les relations interspécifiques, comme par exemple la dynamique des réseaux trophiques. Ces perturbations dans les interactions entre espèces se répercutent sur la composition des communautés (espèces constitutives de la communauté et leur abondance relative). Les changements intervenant dans les communautés déterminent in fine la structure et le fonctionnement des écosystèmes. 2.2. Modifications de phénologie et d'aires de distribution des espèces, et conséquences pour les relations interspécifiques Historiquement, les premiers indices d'impact du réchauffement sur le vivant ont certainement été fournis par l'examen de l'évolution, au cours des dernières décennies, des patterns d'occurrence des espèces dans le temps et dans l'espace. Dans le temps, l'empreinte du réchauffement se retranscrit par une avancée significative du timing de certains événements phénologiques clés chez de nombreux taxons (Körner and Basler, 2010; Menzel et al., 2006; Walther et al., 2002). Par une 15 CHAPITRE I : INTRODUCTION GÉNÉRALE méta-analyse, Parmesan et Yohe (2003) ont démontré que, sur les 484 espèces pour lesquelles une modification de la phénologie avait été observée, 87% répondaient effectivement aux tendances climatiques récentes par un déplacement de leur phénologie vers des dates plus précoces, avec une moyenne d'avancée de cette phénologie égale à 2.3 jours par décennie pour l'ensemble des taxons. Ces modifications phénologiques concernent tout autant la floraison et la feuillaison des plantes, la sortie de diapause des insectes, la saison de reproduction des amphibiens ou encore les timings de migration printanière des oiseaux (Walther et al., 2002). Dans l'espace, le constat est à un déplacement des aires de distribution vers des plus hautes latitudes ou altitudes chez un large éventail de taxons (plantes, lichens, insectes, oiseaux, poissons, mammifères) (Chen et al., 2011; Parmesan et al., 1999; Walther et al., 2002). Toujours dans leur méta-analyse, Parmesan et Yohe (2003) ont retrouvé cette tendance chez 81% (pour la limite inférieure de l'aire de distribution) et 75% (pour la limite supérieure) des 460 espèce en déplacement, avec une moyenne de 6.1 km par décennie en direction des plus hautes latitudes (ou 6.1 m par décennie vers de plus hautes altitudes). Ces altérations de distribution des espèces et leurs populations dans le temps et l'espace se répercutent au niveau des relations interspécifiques et, par voie de conséquence, sur la composition des communautés et le fonctionnement des écosystèmes (Dossena et al., 2012; Tylianakis et al., 2008; Walther, 2010). Il existe donc une seconde voie d'action, plus indirecte, par laquelle le réchauffement peut agir sur les espèces, au travers des liens écologiques qui les associent. L'acquisition d'espèces aux physiologiques et comportementales nouvelles en une zone donnée, de même que, dans certains cas, la colonisation d'un territoire par une espèce de laquelle ses ennemis naturels (prédateurs, parasitoïdes) sont absents, peuvent contribuer à remodeler les relations interspécifiques au sein des réseaux écologiques et affecter les abondances relatives des différentes espèces présentes dans la communauté (Jeffs and Lewis, 2013; Van der Putten et al., 2010). 2.3. Au niveau individuel : la courbe de performance thermique prédit la réponse des traits d'histoire de vie au réchauffement À l'échelle de l'organisme, la température conditionne de manière très étroite la survie, la physiologie et le comportement, en résumé la performance individuelle (Abram et al., 2017; Angilletta et al., 2010). À cet égard, la relation entre une métrique reliée à la performance individuelle (comme un taux physiologique) et la température environnementale se matérialise par une courbe de performance thermique (aussi appelée norme de réaction thermique). Ces courbes s'appliquent à de nombreux organismes, en particulier aux ectothermes comme les insectes, dont la température corporelle varie substantiellement en lien avec la température de l'environnement du fait de capacités de thermorégulation limitées (Angilletta et al., 2010; Huey and Kingsolver, 1989; Huey and Stevenson, 1979). Les courbes de performance thermique présentent deux propriétés distinctives : elles sont unimodales et asymétriques. Leur nature unimodale implique que, à mesure que la température de l'environnement s'accroît, la performance s'élève jusqu'à une unique valeur maximale associée à un optimum thermique (température pour laquelle la performance culmine). Dès que la température environnementale excède cet optimum, la performance décroît. Par , ces courbes sont qualifiées d'asymétriques car l'augmentation de 17 CHAPITRE I : INTRODUCTION GÉNÉRALE performance jusqu'à l'optimum thermique est bien plus graduelle que la chute brutale une fois cet optimum dépassé (Angilletta et al., 2010; Huey and Kingsolver, 1989) (Fig.4). Figure 4 : La courbe de performance thermique prédit comment la température de l 'environnement peut affecter l'expression d'un trait relié à la performance chez un ectotherme (réponse thermique au niveau individuel). Ce concept permet de définir un certain nombre de métriques utiles pour synthétiser la thermobiologie d'une espèce et d'appréhender sa sensibilité face au changement climatique. L'optimum thermique (Topt) est probablement la plus connue de ces métriques, et correspond à la valeur de température pour laquelle la performance atteint sa valeur maximale (Pmax). La courbe est bornée par les températures critiques minimale (TCmin) et maximale (TCmax), en-dessous et au-dessus desquelles la performance est nulle. L'intervalle entre ces deux valeurs correspond à l'amplitude de tolérance thermique de l'organisme, soit la gamme de températures continuellement supportables par l'espèce. Enfin, le concept de marge thermique de sécurité (MTS, en anglais « thermal safety margin ») renvoie à l'intervalle de températures comprises entre l'optimum thermique et la température critique maximale, et renseigne sur la vitesse du déclin de performance une fois la température optimale franchie. Rapidement, les études visant à définir les impacts écologiques du réchauffement ont accordé une importance toute particulière à la réponse thermique observable au niveau individuel, c'est-à-dire comment la performance de l'organisme peut évoluer sous des conditions thermiques changeantes, cherchant à reproduire les températures représentatives des contextes climatiques actuel et futur en un lieu donné (Deutsch et al., 2008; Sinclair et al., 2016; Vasseur et al., 2014). En effet, l'examen de la sensibilité thermique de la performance individuelle peut se révéler particulièrement informatif dans le but de prédire réponses des populations, espèces et leurs interactions au réchauffement climatique, puisque les effets de la 18 CHAPITRE I : INTRODUCTION GÉNÉRALE température observés au niveau de l'organisme peuvent se répercuter en cascade sur tous les niveaux d'organisation supérieurs (Fig.3). 2.4. Comment la réponse à la température observée au niveau individuel peutelle permettre de prédire les conséquences du réchauffement pour les populations et les interactions entre espèces? L'exemple des insectes ravageurs des cultures En écologie, les études placées dans le contexte du réchauffement climatique font aujourd'hui face à un enjeu majeur : celui de prédire avec précision la réponse des individus, populations, espèces et leurs interactions au changement climatique (Tylianakis et al., 2008; Van der Putten et al., 2010; Walther, 2010). Les dimensions de cet enjeu, intégré dans une perspective appliquée, apparaissent particulièrement évidentes en considérant l'exemple des insectes ravageurs des cultures, à l'heure actuelle responsables d'une perte chiffrée à 20% de la production agricole totale à l'échelle planétaire (Dhaliwal et al., 2015; Oerke, 2006). Les cultures mondiales ne sont pas uniquement la cible de 10 000 espèces d'insectes phytophages, mais elles sont aussi exposées à près de 100 000 maladies bactériennes, fongiques ou virales, pour beaucoup véhiculées par ces insectes ravageurs (Dhaliwal et al., 2010; Dhaliwal et al., 2015). Dans le contexte d'une croissance démographique humaine de nature exponentielle, le réchauffement climatique représente une menace sérieuse à la pérennisation d'un approvisionnement suffisant en nourriture pour la population mondiale (Tilman et al., 2011; Wheeler and von Braun, 2013). Ce dernier peut en effet affecter la productivité des systèmes agricoles par voie directe, via modification des facteurs abiotiques susceptibles d'influer sur la croissance des plantes, comme la température, la concentration en CO2 atmosphérique, les régimes de précipitation, ou encore l'intensité du rayonnement ultraviolet (Rosenzweig et al., 2014). En plus de cette voie d'action directe, il peut agir indirectement sur les cultures en modifiant les dynamiques des populations d'insectes ravageurs et donc la pression exercée par ces phytophages sur les plantes cultivées (Bale et al., 2002; Deutsch et al., 2018; Porter et al., 1991). Dans le but d'anticiper les pertes agricoles futures, prédire la manière dont le réchauffement climatique peut affecter la dynamique d'abondance des ravageurs et leurs interactions avec les autres niveaux trophiques (en particulier les 19 CHAPITRE I : INTRODUCTION GÉNÉRALE ennemis naturels participant activement à la régulation des populations de ces ravageurs) s'affirme comme un enjeu scientifique, économique et sociétal de large ampleur (Deutsch et al., 2018; Sharma, 2014). Ainsi, via une approche de modélisation, Deutsch et al. (2018) ont notamment prédit une augmentation des pertes de production céréalière dues aux insectes ravageurs pouvant s'élever de 10 à 25% par degré Celsius d'augmentation de température moyenne. Les pertes les plus significatives sont pressenties dans les régions tempérées, où le réchauffement climatique devrait conduire à des effets bénéfiques sur les insectes ravageurs en rapprochant les conditions thermiques environnementales de leur optimum thermique (Deutsch et al., 2008; Deutsch et al., 2018). De telles prédictions en termes de dynamique populationnelle peuvent être dérivées de l'examen de la réponse des traits d'histoire de vie des ravageurs à une augmentation des températures, mais requièrent toutefois des connaissances approfondies concernant la biologie et l'écologie de ces insectes phytophages (Bale et al., 2002). Cette approche individu-centrée, focalisée sur la réponse physiologique individuelle de l'insecte à la température, permet notamment d'inférer les taux démographiques de la population à partir de la relation établie par voie empirique (expérimentale) entre plusieurs fonctions vitales du ravageur et la température de l'environnement (Deutsch et al., 2018; Estay et al., 2009; Gutierrez et al., 2017; Zidon et al., 2016). Trois processus physiologiques sont classiquement pris en compte pour conjecturer la dynamique des populations de ravageurs à partir des réponses thermiques de leurs traits d'histoire de vie. Premièrement, la survie, en particulier celle des individus pendant la saison hivernale, est un paramètre démographique clé de la persistance de la population (Radchuk et al., 2013). À ce titre, plusieurs études ont postulé qu'une augmentation de la survie hivernale des ravageurs pourrait se produire en réponse au réchauffement climatique, rendant les conditions thermiques durant la défavorable moins rigoureuses (Bale et al., 2002; Robinet and Roques, 2010). Deuxièmement, le taux de développement est souvent pris en considération dans le but de prédire les conséquences du réchauffement sur la durée du cycle biologique du ravageur et ainsi son voltinisme (nombre de générations réalisées annuellement par l'insecte). En se focalisant sur ce trait d'histoire de vie, il est largement admis que les insectes phytophages devraient répondre au réchauffement par une accélération de leur développement et une réduction de la durée de leur cycle de vie, pouvant conduire 20 CHAPITRE I : INTRODUCTION GÉNÉRALE à une augmentation du voltinisme concourant à intensifier la pression exercée par ces insectes sur les cultures pendant la saison de croissance (Martín-Vertedor et al., 2010; Robinet and Roques, 2010; Ziter et al., 2012). Troisièmement, la dynamique des populations des ravageurs va être conditionnée par leur succès de reproduction, lequel est bien souvent assimilé à la fécondité (production en oeufs) des femelles. Cependant, la pertinence de cette considération simplifiée du système de reproduction des ravageurs a fréquemment été questionnée, au regard de l'omission du rôle médiateur joué par le mâle, dont la qualité de l'éjaculat transféré durant l'accouplement peut avoir des répercussions profondes sur la productivité des femelles (Ferguson et al., 2005; Muller, 2016; Rankin and Kokko, 2007). Malgré l'influence prépondérante de cette composante mâle dans le succès de reproduction des ravageurs, relativement peu d'informations ont été collectées quant à la modulation thermique des traits sexuels mâles afin d'anticiper les éventuelles conséquences pour la ponte des femelles après accouplement (Vasudeva et al., 2014; Zeh et al., 2012). Par ailleurs, les réponses des ravageurs au réchauffement sont indissociables de leur interaction avec le niveau trophique supérieur, en particulier les insectes parasitoïdes responsables d'une large part de la mortalité naturelle observée au sein des populations de ces ravageurs (Hawkins et al., 1997; Stireman et al., 2005; Thomson et al., 2010). Au-delà des traits d'histoire de vie classiquement mesurés comme prédicteurs de la dynamique des populations des ravageurs, d'autres traits peuvent être pris en considération dans le but d'évaluer les conséquences du changement climatique sur la susceptibilité future des ravageurs face à leurs ennemis naturels. Dans le contexte des relations hôte-parasitoïde, plusieurs traits constitutifs du système défensif des ravageurs face aux parasitoïdes peuvent être examinés (voir le contexte général du Chapitre III -dessous). Plus particulièrement, les conséquences du réchauffement sur la dynamique entre ces deux niveaux trophiques peuvent être appréhendées au regard de la modulation thermique des comportements défensifs des ravageurs et de leur immunité, cherchant à les prémunir de la ponte et du développement des parasitoïdes, respectivement (Le Lann et al., 2014; Seehausen et al., 2017a; Thierry et al., 2019). Ainsi, une connaissance détaillée des effets de la température sur la résistance des insectes phytophages face à leurs ennemis naturels peut permettre d'évaluer les conséquences du changement climatique en termes de 21 CHAPITRE I : INTRODUCTION GÉNÉRALE pression exercée (mortalité provoquée) par ces agents de contrôle biologique sur les populations de ravageurs. 3. DE LA CLIMATOLOGIE À L'ÉCOLOGIE : COMMENT EST CONCEPTUALISÉ LE RÉCHAUFFEMENT CLIMATIQUE DANS LES ÉTUDES EN ÉCOLOGIE? 3.1. Les régimes constants pour caractériser les réponses thermiques de différents traits reliés à la performance individuelle Bon nombre d'études s'intéressant aux effets de températures croissantes sur la performance individuelle se sont basées sur des designs expérimentaux faisant intervenir des régimes constants, c'est-à-dire dont la température est invariable dans le temps (pour des exemples récents, voir Fonseca et al., 2016; Laughton et al., 2017). Ce faisant, elles ont centralisé leur intérêt sur la réponse de la performance individuelle à une augmentation de température moyenne comme manifestation évidente des perturbations climatiques engendrées par le réchauffement. Cette méthode expérimentale d'imitation du réchauffement climatique permet, de manière simple et intuitive, de caractériser la réponse thermique de différents traits d'histoire de vie de l'organisme, et ainsi de mettre en exergue des différences de sensibilité thermique 22 CHAPITRE I : INTRODUCTION GÉNÉRALE pouvant exister entre traits (Laughton et al., 2017; Seehausen et al., 2017b). Chez la pyrale indienne des fruits secs par exemple (Plodia interpunctella), une hausse de température moyenne de 20 à 30°C réduisait de moitié la durée du développement total (de l'oeuf à l'adulte), mais s'accompagnait cependant d'effets négatifs sur la longévité de l'adulte après accouplement (-32%) et sur l'immunité des larves (charge hémocytaire de l'hémolymphe réduite de plus de 50%) (Laughton et al., 2017). Ces résultats attestent de différences de réponse à la température (et d'optimum thermique) entre traits d 'histoire de vie. Ainsi, les conclusions quant à la manière dont l'augmentation de température moyenne peut affecter la performance individuelle vont dépendre du gradient de températures moyennes comparées et de sa position par rapport à l'optimum thermique du trait considéré. Dans un design expérimental faisant intervenir une comparaison de régimes constants, l'élévation de température moyenne peut avoir des effets bénéfiques sur l'expression d'un trait et la performance de l'organisme si elle rapproche les conditions thermiques de l'optimum pour ce trait, ou néfastes si elle amène ces conditions à le dépasser. La vulnérabilité d'une espèce au réchauffement dépend donc tout autant de ses caractéristiques en termes de sensibilité thermique (valeur d'optimum thermique du trait considéré) et de la magnitude d'augmentation de température moyenne à laquelle elle est exposée. 3.2. But means are the abstractions, variation is the hard reality : l'intégration des fluctuations thermiques et leur altération dans les études d'impact du réchauffement Les comparaisons de régimes constants présentent une valeur heuristique certaine, car elles se présentent comme des méthodes conceptuellement intuitives et techniquement simples à mettre en oeuvre pour déterminer les effets d'une augmentation de température moyenne sur différents traits prédictifs de la performance individuelle par le prisme des courbes de performance thermique. Toutefois, ce genre de design souffre inéluctablement d'un manque de réalisme écologique, car les environnements thermiques naturels sont plus dynamiques et complexes que des régimes constants auxquels ils sont ainsi assimilés. En effet, les organismes vivants sont en permanence exposés à une variation des températures in natura (pour une revue récente, voir Colinet et al., 2015) (Fig.5). Cette variabilité thermique est perceptible dans le temps, comme peuvent l'illustrer les fluctuations 23 CHAPITRE I : INTRODUCTION GÉNÉRALE quotidiennes des températures, dont l'amplitude varie selon les saisons et les habitats pour dépasser 30°C dans les cas les plus extrêmes comme les environnements polaires (Sinclair et al., 2006). Elle se matérialise aussi dans l'espace, en particulier pour des organismes de faible taille corporelle comme les insectes, capables de percevoir et d'exploiter une importante hétérogénéité de conditions microclimatiques (Pincebourde and Woods, 2012; Potter et al., 2013; Terblanche et al., 2015). Par exemple, les températures peuvent varier de parfois plus de 15°C à l'échelle d'une parcelle de 100 cm2 d'herbacées rases (Potter et al., 2013), tandis qu'une différence parfois supérieure à 10°C peut être observée entre baies au sein d'une même grappe de raisin Moffat, 2013). Pour ces raisons, il est très réducteur de considérer que le budget d'énergie thermique reçue par un organisme soit constant dans le temps et l'espace. L'intégration des fluctuations thermiques s'est ainsi révélée indispensable dans le but d'approfondir la compréhension des impacts du réchauffement sur les organismes et les niveaux d'organisation supérieurs (Colinet et al., 2015; Estay et al., 2014; Folguera et al., 2011; Vázquez et al., 2017). Figure 5 : Deux exemples illustratifs de la variabilité naturelle de températures que peuvent rencontrer les organismes dans leur environnement. Cette variabilité existe dans le temps (A), ici des variations de température prises à intervalle de 10 minutes sur une période de deux mois, pour trois espèces polaires de collemboles. Les températures fluctuent aussi dans l'espace (B), comme ici à l'é chelle d'une grappe de baies de raisin. Repris d'après Sinclair et al. (2006) et Moffat (2013). 24 CHAPITRE I : INTRODUCTION GÉNÉRALE Les variations de température au cours de la journée sont probablement les plus étudiées en écologie, et leur exemple est particulièrement révélateur de l'importance que peut prendre la manière choisie pour simuler le réchauffement climatique dans les études expérimentales de laboratoire (Bozinovic et al., 2016; Folguera et al., 2011; Paaijmans et al., 2013). De nombreuses études ont mis en évidence les effets de ces fluctuations thermiques sur un grand nombre de traits d'histoire de vie chez les insectes, reliés aussi bien à la dynamique de la population (développement, croissance, longévité, reproduction, budgets énergétiques, tolérance aux températures extrêmes) et aux relations hôte-parasitoïde (immunité) (Colinet et al., 2015; Fischer et al., 2011). Au niveau individuel, les impacts de cette variabilité thermique s'expliquent via l'examen des courbes de performance thermique. Effectivement, la nature non linéaire de la relation qui unit les processus biochimiques et physiologiques des ectothermes à la température implique qu'une déviation, même de faible amplitude, par rapport à une valeur de température moyenne peut avoir des conséquences non négligeables en termes de performance individuelle. Par ailleurs, du fait de l'asymétrie des courbes de performance thermique de part et d'autre de l'optimum thermique, la nature des effets causés par la variabilité thermique sur la performance va dépendre de la température moyenne autour de laquelle les fluctuations s'opèrent, comme l'explique l'inégalité de Jensen (Denny, 2017; Martin and Huey, 2008; Ruel and Ayres, 1999). D'après cette propriété mathématique applicable aux fonctions non linéaires comme celle inhérente aux courbes de performance thermique, les fluctuations ont un effet bénéfique sur performance si elles s'exercent autour d'une température moyenne inférieure à l'optimum thermique pour le trait considéré (dans la partie convexe de la courbe de performance thermique). Au contraire, un déclin de performance est attendu si les fluctuations sont associées avec une température moyenne égale ou supérieure à cet optimum thermique, dans la partie concave de la courbe de performance thermique (pour des preuves expérimentales de l'inégalité de Jensen, voir Bozinovic et al., 2011; Foray et al., 2014; Kingsolver et al., 2015) (Fig.6). 25 CHAPITRE I : INTRODUCTION GÉNÉRALE Dans un contexte de réchauffement climatique et d'augmentation de température moyenne, il apparaît donc que la variabilité thermique naturelle puisse exacerber les risques d'exposition des organismes, pendant des durées plus ou moins prolongées, à des températures supra-optimales associées avec l'effondrement de la performance, dans la partie concave de la courbe de performance thermique (Paaijmans et al., 2013; Stoks et al., 2017; Vasseur et al., 2014; Vázquez et al., 2017). Ce dépassement de l'optimum thermique durant les heures les plus chaudes du cycle quotidien des températures est d'autant plus plausible que, parallèlement à l'augmentation de température moyenne, il est aussi attendu un accroissement de l'amplitude thermique journalière dans de nombreuses localités (voir la section 1.2. du Chapitre I ci-dessus). Ainsi, les effets du réchauffement climatique sur les organismes sont mieux appréhendés en considérant simultanément les changements se produisant à la fois dans la température moyenne et la variabilité thermique, les seconds pouvant parfois avoir un impact aussi important, voire plus important, que les premiers en termes de performance individuelle et de dynamique des populations (Stoks et al., 2017; Vasseur et al., 2014; Vázquez et al., 2017) (Fig.6). Par exemple, Vasseur et al. (2014) ont démontré, au travers d'une étude conduite sur la réponse d'un ensemble de 38 taxons invertébrés au changement climatique, que la variation de performance était expliquée à 32% en considérant uniquement le changement de température moyenne, à 54% en ne conservant que le changement de variabilité thermique (amplitude thermique journalière), et à 93% en intégrant l'interaction entre ces deux facettes du réchauffement climatique. En outre, la direction de l effet variait elle aussi. Si l'augmentation de température moyenne projetée avait des effets généralement positifs sur la performance des différents taxons en les rapprochant de leur optimum thermique, la considération en parallèle des changements de variabilité thermique générait des effets beaucoup plus variables (négatifs, nuls, ou positifs) et d'amplitude souvent plus importante, du fait de la non-linéarité de la relation entre performance et température. Ces résultats démontrent aussi que l'interaction entre changements de température moyenne et de variabilité thermique n'a pas des effets trivialement négatifs sur les organismes. Figure 6 : Les effets des fluctuations thermiques sur la performance des ectothermes sont dépendants tout autant de leur magnitude que de la température m oyenne autour de laquelle cette vari abilité thermique s'opère . Un certain nombre d'études en écologie ont choisi comme méthode d'imitation du réchauffement climatique le scénario 1 présenté ci-dessus : une augmentation de température moyenne sans altération de la variabilité thermique. Les conséquences des fluctuations en termes de performance sont alors prédites par l'inégalité de Jensen : les fluctuations ont un effet bénéfique sur l'organisme (zone verte) pour une température moyenne inférieure à l'optimum thermique, et négatif (zone rouge) pour une température moyenne au-delà de cet optimum. D'autres études ont adopté le scénario 2, incorporant une augmentation simultanée de température moyenne et d'amplitude des fluctuations. La prédiction des impacts de ces dernières sur l'organisme est alors plus complexe. Ils sont supposés positifs pour une température moyenne inférieure au point d'inflexion de la courbe, et négatifs pour une température moyenne supérieure à l'optimum thermique. Entre ces deux valeurs de température moyenne, les effets sont mixtes (zone bleue) : ils peuvent être positifs comme négatifs. La nature de ces effets va dépendre de multiples facteurs, comme les magnitudes relatives d'augmentation de la température moyenne et de la variabilité thermique, la sensibilité de l'organisme à cette variabilité (amplitude de tolérance thermique, marge thermique de sécurité), la capacité de l'organisme à éviter (comportements de thermorégulation) ou à tirer profit de brèves expositions à des températures élevées Modifié d'après Estay et al. (2014). 27 CHAPITRE I : INTRODUCTION GÉNÉRALE 3.3. Un nouveau défi pour les prédictions en écologie dans le cadre du changement climatique : le cas particulier des vagues de chaleur Au cours des dernières années, un nombre grandissant d'études en écologie s'est tourné vers les impacts des vagues de chaleur sur les différents niveaux d'organisation du vivant (Jentsch et al., 2007; Smith, 2011; Stoks et al., 2017). Toutefois, dans une optique de retranscrire ces événements thermiques extrêmes au travers de traitements expérimentaux appliqués au laboratoire, ces études se sont heurtées à un obstacle majeur : l'absence de consensus sur la définition climatologique d'une vague de chaleur. En effet, bien que tous les climatologues se rejoignent sur la nature plus ou moins prolongée (de un à plusieurs jour(s)) de ces événements extrêmes et leurs impacts majeurs sur la santé humaine et les écosystèmes, des désaccords sémantiques subsistent quant au seuil absolu de température devant être dépassé, la métrique thermique à considérer (température moyenne, minimale ou maximale journalière), et la durée de l'événement requise pour caractériser sans équivoque une vague de chaleur (Meehl and Tebaldi, 2004; Smith et al., 2013). À titre d'exemple, Smith et al. (2013) ont répertorié 16 manières distinctes de définir une vague de chaleur en se basant sur la littérature disponible en climatologie. En écologie, deux designs expérimentaux sont employés pour simuler une vague de chaleur : une exposition unique et ponctuelle à des températures extrêmes, dans certains cas sublétales (en dehors de l'amplitude de tolérance thermique de l'espèce) ; ou une exposition chronique, avec une fréquence plus importante, à des températures modéré stressantes (supra-optimales mais comprises dans l'amplitude de tolérance thermique de l'espèce) (Zhang et al., 2015b). Ces deux méthodes conduisent sensiblement aux mêmes conclusions en termes d'impacts biologiques : l'exposition, même ponctuelle, à des températures excessivement élevées (au-delà de l'optimum thermique voire de la température critique maximale) engendre bien souvent un déclin généralisé de la performance et persistant à l'échelle de plusieurs stades de vie (Chiu et al., 2015; Fischer et al., 2014; Zhang et al., 2013; Zhang et al., 2015a). Ces impacts au niveau individuel se répercutent en cascade sur les niveaux d'organisation supérieurs, comme en témoignent les effets avérés des vagues de chaleur sur les populations (diminution des taux démographiques, modification de la constitution génétique des populations) et les communautés (changements dans la hiérarchie de dominance entre espèces en compétition, perturbation des relations 28 CHAPITRE I : INTRODUCTION GÉNÉRALE interspécifiques comme les interactions hôte-parasitoïde) (Gillespie et al., 2012; Ma et al., 2015; Rodriguez -Trelles et al., 2013). Les insectes sont toutefois loin d'être démunis face aux vagues de chaleur, puisqu'ils peuvent exprimer des mécanismes de réparation des dommages physiologiques subis lors de l'exposition à des hautes températures, et ainsi contrebalancer les conséquences négatives de ces épisodes caniculaires en termes de performance (Bowler and Kashmeery, 1979; Malmendal et al., 2006). Cette réponse vise à maintenir l'homéostasie physiologique et cellulaire, via une modification des concentrations cellulaires en différents métabolites ainsi que la synthèse de protéines chaperonnes (« heat shock proteins »), dont la fonction est de protéger les autres protéines cellulaires de la dénaturation induite par la chaleur (King and MacRae, 2015; Malmendal et al., 2006; Zhao and Jones, 2012). De tels mécanismes compensatoires semblent opérationnels lors du retour à des températures « normales », amenant certains auteurs à penser qu'ils doivent plus facilement se réaliser dans le cas d'une exposition ponctuelle et unique suivie d'un retour permanent à des conditions thermiques favorables pour l'espèce (Zhang et al., 2015b). La réalité semble plus complexe, puisque des travaux récents ont démontré que, même dans un cas d'exposition chronique (sur plusieurs jours) à la vague de chaleur, les impacts de celle-ci sur la performance individuelle et la dynamique populationnelle dépendaient grandement de la distribution dans le temps et l'alternance des jours de vague de chaleur et des jours « normaux » permettant l'expression de mécanismes de réparation (Ma et al., 2018a). Ces résultats suggèrent donc une compensation possible même dans un cas d'exposition régulière à des températures élevées, entrecoupée de périodes de récupération. Une telle compensation dépend vraisemblablement d'une balance subtile entre dégâts subis lors des journées de chaleur et mécanismes de régénération exprimés lors des journées aux températures plus propices à la survie de l'organisme (Ma et al., 2018a). 29 CHAPITRE I : INTRODUCTION GÉNÉRALE 4. PRÉSENTATION DE LA THÈSE : IMPACTS DU RÉCHAUFFEMENT CLIMATIQUE SUR LA PERFORMANCE D'UN RAVAGEUR DE LA VIGNE ET CONSÉQUENCES POUR LES RELATIONS TRITROPHIQUES 4.1. Le cas du système tritrophique en milieu viticole : effets potentiels de la température sur l'eudémis et sur les deux niveaux trophiques adjacents Ce travail de thèse se porte sur un insecte Lépidoptère reconnu comme l'un des principaux ravageurs des cultures viticoles en Europe : l'eudémis de la vigne (Lobesia botrana). Au regard des importantes pertes de production pouvant être engendrées par ce ravageur à l'état larvaire (voir la section 1.2.2. du Chapitre II ci-dessous), anticiper les conséquences du réchauffement climatique sur les populations d'eudémis et appréhender les répercussions pour l'activité viticole se révèle être un enjeu actuel majeur pour la recherche en viticulture (Castex et al., 2018; Reineke and Thiéry, 2016; Thiéry et al., 2018). Au sein des agroécosystèmes, ce phytophage est intégré dans un contexte écologique qualifié de « système tritrophique », puisqu'il implique des relations trophiques avec le niveau inférieur (la plante hôte) et le niveau supérieur (les ennemis naturels, dont la guilde de parasitoïdes). La température est donc susceptible d'agir par différentes voies sur les populations d'eudémis : une voie directe via modulation thermique des traits d'histoire de vie du ravageur, une voie indirecte régulée par les caractéristiques de la plante hôte (effets « bottom-up ») et une voie indirecte influencée par la virulence des ennemis naturels (effets « top-down ») (Han et al., 2019; Reineke and Thiéry, 2016) (Fig.7). Les effets directs de la température sur la performance des chenilles adultes d'eudémis sont les mieux renseignés, puisque les courbes de performance thermique des principales fonctions vitales permettant d'inférer la dynamique de population du ravageur (développement larvaire, survie larvaire, production en oeufs des femelles) ont déjà été caractérisées (voir Gutierrez et al., 2012). Cependant, les prédictions quant à la performance future du ravageur dans un scénario de réchauffement climatique se heurtent à deux limites majeures. La première est celle d'un examen jusqu'à présent restreint à un trop faible nombre de traits d'histoire de vie du phytophage. Par exemple, les effets de la température sur les capacités de défense des chenilles face à leurs ennemis naturels, qui vont grandement conditionner la survie larvaire dans les agroécosystèmes, sont encore inconnus. Figure 7 : Les différentes voies d'action de la température sur l'eudémis (L. botrana) dans le contexte écologique des réseaux tritrophiques. La température peut agir par voie directe (en rouge) sur un certain nombre de traits d'histoire de vie du ravageur (2ème niveau trophique), lesquels vont influencer la déprédation exercée par cet insecte sur la plante hôte (1er niveau trophique) et conditionner sa susceptibilité face à ses ennemis naturels (3ème niveau trophique). La température peut aussi agir sur l'eudémis de manière plus subtile, via deux voies indirectes. Par la voie indirecte « bottom-up » (en violet), la température va affecter la performance du ravageur via une modification d'un certain nombre de traits de la plante hôte permettant de définir sa valeur nutritive. Par la voie indirecte « top-down » (en orange), la température va moduler la pression de parasitisme exercée par les ennemis naturels (parasitoïdes) sur les populations du ravageur. 31 CHAPITRE I : INTRODUCTION GÉNÉRALE 4.2. Principaux objectifs de la thèse L'objectif général de cette thèse est d'approfondir la compréhension des différentes voies d'action de la température sur l'eudémis dans un contexte de réchauffement climatique, en considérant la pluralité de facettes qui caractérise ce phénomène complexe. Elle conjugue un intérêt appliqué, en cherchant à affiner les capacités de prédiction de la dynamique d'abondance future du ravageur et les potentiels dégâts associés sur les cultures, et un intérêt plus fondamental, puisque les différents chapitres constitutifs de cette thèse vont chacun traiter une question nouvelle dans le cadre intellectuel du réchauffement climatique. Les conséquences des différentes facettes du changement climatique sur l'eudémis seront examinées via l'utilisation des méthodes d'imitation du réchauffement climatique présentées dans les sections 3.1., 3.2. et 3.3. de ce chapitre. Le premier objectif, développé dans le Chapitre III, est d'inspecter les effets d'une augmentation de température moyenne sur la performance larvaire de L. botrana, avec une attention principalement centrée sur les traits défensifs impliqués dans la résistance des chenilles face aux parasitoïdes larvaires. L'étude réalisée dans ce chapitre a eu recours à un design expérimental faisant intervenir des régimes constants de différentes températures moyennes, et dont la comparaison s'est révélée informative dans le but de caractériser les réponses des différents traits défensifs des chenilles (développement, morphologie, comportements, immunité) à une augmentation de température moyenne. Ce chapitre attestera non seulement de la grande sensibilité à la température pour la plupart des traits défensifs examinés, mais également d'une forme de variabilité dans les réponses thermiques des différents traits, suggérant des conséquences complexes en termes d'évolution de la vulnérabilité de l'hôte face aux parasitoïdes dans un contexte de changement climatique. Un niveau de réalisme climatique supplémentaire est incorporé dans le Chapitre IV, qui, grâce au recours à la modélisation climatique, s'intéresse à la réponse d'eudémis à des changements réalistes de température moyenne et d'amplitude des fluctuations journalières survenant à une échelle spatiale relativement fine (échelle locale). En outre, ce chapitre sera constitué par trois études distinctes. La première est exclusivement portée sur la performance larvaire du ravageur, intégrant une batterie 32 CHAPITRE I : INTRODUCTION GÉNÉRALE de mesures sur les traits défensifs et budgets énergétiques des chenilles. Elle confirmera, en système fluctuant, la diversité de réponses thermiques mise en exergue avec des régimes constants dans le Chapitre III, et discutera les différences de réponses des traits observées entre systèmes constant et fluctuant. Parallèlement à cette première étude, la seconde étude s'est focalisée sur la performance des adultes, en particulier le potentiel reproducteur de chaque sexe considéré indépendamment. Ainsi, l'originalité de cette étude réside dans sa capacité à évaluer la sensibilité à la température des traits sexuels de chaque partenaire. Les résultats de cette étude plaideront, une fois de plus, en faveur de la considération de la performance sexuelle du mâle en tant que composante intégrante du succès de reproduction de l'espèce. Combinés à ceux obtenus sur la performance larvaire, ces résultats sur la reproduction des adultes permettront de dresser des conclusions intégratives quant aux conséquences du réchauffement climatique sur la performance individuelle et la dynamique des populations d'eudémis. Enfin, la troisième étude du Chapitre IV s'est centrée sur modulation thermique de l'interaction entre les oeufs de L. botrana et un parasitoïde oophage (Trichogramma cacoeciae). La question novatrice alors adressée est de savoir si les conditions thermiques connues par une génération parentale d'hôtes pouvaient influencer la résultante de l'interaction entre les oeufs pondus par cette génération et le parasitoïde. L'étude suggérera que de tels effets thermiques parentaux se révèlent être un facteur clé de modulation de l'interaction hôteparasitoïde, et soulignera l'importance du rôle joué par la plasticité phénotypique transgénérationnelle pour le devenir d'une interaction hôte-parasitoïde dans le contexte du réchauffement climatique. Le Chapitre V se era sur la réponse des chenilles d'eudémis à une autre facette du changement climatique : l'occurrence d'un événement thermique extrême comme une vague de chaleur. L'étude développée dans ce chapitre vise à approfondir la compréhension des mécanismes potentiellement mis en jeu dans la réponse individuelle et permettant de mitiger les conséquences néfastes de la vague de chaleur en termes de performance. Plus particulièrement, elle explore l'existence de mécanismes compensatoires dépendant de l'alimentation, en cherchant à déterminer si la qualité de la nourriture disponible après la vague de chaleur peut influencer l'éventuelle capacité des chenilles à contrebalancer les effets négatifs induits par l'exposition au stress thermique. itre II M et 35 CHAPITRE II : MATÉRIEL ET MÉTHODES GÉNÉRAL 1. MODÈLE BIOLOGIQUE 1.1. Caractéristiques générales et distribution L'eudémis de la vigne (Lobesia botrana) est un insecte Lépidoptère de la famille des Tortricidae. Elle est souvent appelée « tordeuse de la vigne » (en raison de la particularité qu'ont les chenilles à enrouler les bords des feuilles de vigne autour d'elles au moment de la nymphose) ou « ver de la grappe », dénominations vernaculaires qu'elle partage avec des espèces apparentées comme la cochylis (Eupoecilia ambiguella), la pyrale de la vigne (Sparganothis pilleriana) ou l'eulia (Argyrotaenia ljungiana) (Thiéry, 2005). Le développement des chenilles se compose d'une succession de cinq stades larvaires (du stade L1 au stade L5) avant la métamorphose. Au stade imago, l'eudémis se présente comme un microlépidoptère nocturne, d'une taille de 6-8 mm de long pour une envergure d'une dizaine de millimètres (Fig.8). Les papillons arborent des couleurs ternes, avec des ailes couvertes d'écaille et repliées en toit au-dessus du corps. Un dimorphisme sexuel existe : outre la différence de masse déjà perceptible au stade de chrysalide (les femelles étant de masse plus importante que les mâles), il est possible de sexer sans aucune ambiguïté les individus à l'examen de la partie postérieure de l'abdomen. Les femelles possèdent alors une pigmentation ventrale brunâtre et une gouttière chitinisée de laquelle sort l'ovipositeur, tandis que les mâles se distinguent par une extrémité beaucoup plus longiligne, constituée par deux lèvres jointes recouvertes d'une pilosité importante ( .9). Figure 8 : Photographies de trois stades de vie d'eudémis (L. botrana) : (A) une chenille sur une bractéole de baies de raisin en nouaison, (B) deux chrysalides, avec dimorphisme sexuel de taille déjà apparent (femelle en haut à gauche, mâle en bas à droite) et (C) une femelle adulte, vue de dessous, reconnaissable à la pigmentation brunâtre et la gouttière chitinisée à l'extrémité postérieure de l'abdomen. © F. Vogelweith, K. Muller, C. Manière. 36 CHAPITRE II : MATÉRIEL ET MÉTHODES GÉNÉRAL Figure 9 : Photographies des extrémités abdominales d'une femelle (à gauche) et d'un mâle (à droite) chez l'eudémis (L. botrana). La femelle se distingue par un abdomen plus large, une tâche foncée et une gouttière chitinisée de laquelle sort l'ovipositeur. Le mâle présente lui une extrémité abdominale plus élancée, d'aspect duveteux car recouverte d'une pilosité importante. © K. Muller. En ce qui concerne son aire de distribution géographique, l'eudémis est une espèce majoritairement représentée dans les vignobles distribués sur le pourtour du bassin méditerranéen, où elle trouve les environnements chauds et secs propices à son établissement et son développement (Gutierrez et al., 2017; Thiéry, 2005; Varela et al., 2010). L'espèce a également été introduite inopinément dans des zones en dehors de cette aire de répartition originelle, comme en attestent des observations plus ou moins sporadiques au Chili, en Californie, au Japon et en Afrique de l'Est (Gilligan et al., 2011; Gutierrez et al., 2012) (Fig.10A). En France, les premières missions entomologiques attestant de la présence de L. botrana sur le territoire sont datées de la fin du XIXème siècle. Deux hypothèses sont avancées pour retracer la/les voie(s) utilisé(e)s par l'espèce pour coloniser le vignoble français (Thiéry, 2005). La première est celle d'une provenance d'Europe centrale et d'une arrivée par l'Allemagne, en témoigne la première observation historique de l'espèce, réalisée en Autriche par Schiffermüller et Denis (1775). La seconde hypothèse est celle d'une voie de colonisation plus méridionale, avec une entrée en France par la Provence. Cette hypothèse est étayée par les préférences écologiques actuelles de l'espèce (chaleur, sécheresse, capacité à exploiter des plantes hôtes d'essence méditerranéenne). L'expansion rapide de l'espèce en France serait liée à la replantation massive de ceps de vigne ayant fait suite à la crise phylloxérique (avec une favorisation des variétés à croissance rapide et à rendement important), ainsi qu'à un agrandissement concomitant de l'étendue des surface viticoles (Thiéry, 2005). L'eudémis est 37 CHAPI II G NÉRAL aujourd'hui présente sur presque la totalité du territoire viticole français, avec de plus fortes abondances dans les parcelles du Midi et du Sud-Ouest (Fig.10B). Dans un contexte de réchauffement climatique, les modèles prédictifs de la dynamique des populations d'eudémis avancent que, en lien avec les conjectures climatiques actuelles, l'abondance des populations de ce ravageur pourrait augmenter dans les secteurs Nord de la zone Euro-Méditerranéenne. En revanche, une réduction de l'abondance de l'insecte devrait être observée dans les portions plus méridionales, où les hautes températures risquent d'affecter négativement ses fonctions vitales et la productivité de la vigne (Gutierrez et al., 2017). Figure 10 : (A) Distribution actuelle d'eudémis (L. botrana) à l'échelle mondiale (en orangé) et (B) à l'échelle nationale (en grisé). L'étoile indique la présence supposée de l'espèce en Californie, où elle a notamment été observée en 2009. Modifié d'après Varela et al. (2010) et Babi (1990). 1.2. Biologie et écologie de l'espèce 1.2.1. Cycle biologique L'eudémis est une espèce plurivoltine capable de réaliser entre deux et quatre générations par an, ce voltinisme étant contrôlé par les conditions thermiques variant selon la latitude. À cet égard, les populations méridionales réalisent un plus grand nombre de générations annuellement que les populations septentrionales (Gutierrez et al., 2017; Martín-Vertedor et al., 2010; Thiéry, 2005). Le cas le plus généralement observé reste celui de trois cycles reproducteurs par an : la première génération, pondue en mai, se développe sur les boutons floraux ; la seconde, apparaissant début juillet, consomme les baies en nouaison ; la troisième, visible entre mi-août et mi CHAPITRE II : MATÉRIEL ET MÉTHODES GÉNÉRAL septembre, s'attaque aux baies matures en fin de véraison (Fig.11). L'eudémis effectue une diapause hivernale au stade de chrysalide, principalement induite par une réduction de la longueur du jour (Roditakis and Karandinos, 2001; Roehrich, 1970; Thiéry, 2005). Cette diapause reste toutefois facultative : certaines populations (Égypte, Israël) ne passent pas l'hiver sous une forme diapausante, et il est également possible d'élever l'espèce sans diapause au laboratoire en maintenant un régime lumineux avec 16 heures de photophase (Thiéry, 2005). Dans vignobles, les cocons d'hiver sont protégés sous les écorces de ceps, dans le sol ou parfois dans les grappes sèches non vendangées. Au printemps suivant, les adultes émergeant de ces chrysalides hivernantes donneront, après reproduction, naissance à la première génération d'oeufs et de chenilles de la saison. Figure 11 : Cycle biologique annuel d'eudémis (L. botrana), avec succession de trois générations se développant sur différents stades phénologiques de la plante hôte (fleurs, baies en nouaison, baies matures). La durée du cycle, de même que le nombre de générations réalisées annuellement, varient selon la température environnementale. Un chevauchement partiel des générations dans le temps est possible. Repris d'après Muller (2016). 1.2.2. Alimentation des larves : relation avec le niveau trophique inférieur Si elles ne sont pas dérangées par un ennemi naturel (voir la section 4.1.1. de ce chapitre ci-dessous), les chenilles effectuent en règle générale l'intégralité de leur développement au sein de la même inflorescence ou grappe de raisin, dans un nid appelé « glomérule », qu'elles constituent en agglomérant avec de la soie plusieurs boutons floraux ou baies (Thiéry, 2005). L'intense activité d'alimentation des larves, qui s'attaquent exclusivement aux organes fructifères de leur plante hôte, occasionne des dégâts aux cultures relativement importants, faisant de cette espèce l'un des ravageurs les plus problématiques pour l'activité viticole en Europe (Reineke and Thiéry, 2016; Thiéry et al., 2018). Bien que jamais quantifiés, les préjudices économiques engendrés par ce ravageur sont supposés élevés, considérant l'intense déprédation des chenilles sur les baies (une chenille peut attaquer entre 2 et 10 baies au cours de son développement), et les densités qui, dans les vignobles les plus sévèrement touchés, peuvent atteindre 20 à 30 larves par inflorescence (Delbac and Thiéry, 2016). En Grèce par exemple, la perte de rendement imputable à la présence de cette espèce a été chiffrée entre 13.3 et 27% de la production totale en termes de biomasse végétale sur une période de quatre ans (Moschos, 2006). Ces dommages aux récoltes sont induits par voie directe (via consommation des tissus végétaux) et indirecte, car les chenilles exacerbent la susceptibilité de la plante aux maladies fongiques, comme les pourritures grise (Botytris cinerea) et noire ( spergillus niger), mais aussi à d'autres insectes ravageurs des fruits comme Drosophila suzukii (Cozzi et al., 2006; Reineke and Thiéry, 2016) (Fig.12).
16,626
02/halshs.archives-ouvertes.fr-halshs-00303689-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,708
13,504
La contagion liée au changement des anticipations : évidence de la crise coréenne Mohamed Ayadi, Wajih retto La contagion liée au changement des anticipations : évidence de la crise coréenne Wajih Khallouli, René Sandretto, Mohamed Ayadi Juin 2008 UMR 5824 du CNRS 93 chemin des Mouilles – 69130 Écully – France B.P. 167 – 69131 Écully Cedex Tél. +33 (0)4 72 86 60 60 – Fax +33 (0)4 72 86 60 90 Messagerie électronique [email protected] Serveur Web : www.gate.cnrs.fr La contagion liée au changement des anticipations : évidence de la crise coréenne∗ Wajih KHALLOULI∗ René SANDRETTO Mohamed AYADI Résumé : L'objet de cet article, appliqué au cas de la crise de change coréenne de 1997-1998, est d'identifier la contagion à travers une étude empirique de la dynamique des anticipations des investisseurs qui s'affranchisse de la pseudo explication cache misère par une variable « tache solaire ». A cet effet, nous développons un modèle avec changement de régime de Markov dans la lignée des travaux de Jeanne et Masson (2000), mais dans lequel nous endogénéisons les probabilités de transition entre les états de l'économie de manière à pouvoir à la fois identifier et expliquer un effet de contagion. L'un des principaux apports de notre modélisation est qu'elle montre dans le cas coréen, une imbrication du rôle des fondamentaux du pays et d'une contagion issue d'une rupture auto- atrice dans les « croyances du marché », elle-même liée à la crise en Thaïlande et en Indonésie. Classification JEL : C22 ; F31 ; F41 Mots Clefs : crise asiatique, crise de change coréenne, contagion, équilibres multiples, anticipations, sp éculation auto- réalis atrices, m odèle s à cha îne de Markov. Abstract: The object of this article, applied to the case of Korean currency crisis of 1997-1998, is to identify the contagion through an empirical study of the investor anticipations dynamics which is freed from the pseudo explanation hiding place misery by'sunspot'. To this end, we develop a, Markov-switching model in line with Jeanne and Masson (2000), but in which we use endogenous probabilities of transition between the states from the economy so as to be able at the same time to identify and explain an effect of contagion. One of the principal contributions of our modelling is that it shows in the Korean case, an overlap of the role of country fundamentals and a self-fulfilling contagion resulting from a rupture in the "beliefs of the market", it self related to the crisis in Thailand and Indonesia. JEL Classification : C22 ; F31 ; F41 Key words: East Asia crisis; Korean currency crisis; Contagion; Multiple equilibria; Anticipations; Self-fulfilling speculation, Markov-switching models. ∗ Nous remercions André Cartapanis pour ses remarques et suggestions sur une version précédente de ce texte. Bien entendu, les auteurs sont seuls responsables des éventuelles insuffisances de cet article. ∗ Correspondance : Wajih Khallouli – 4 rue Abou Zakaria El Hafsi Montfleury, Tunis 1089, Tunisie – Tel. (216) 23 51 06 10 – Fax. (216) 71 33 35 18 –[email protected] 1 1. Introduction La crise du sud-est asiatique et notamment l'effondrement du won coréen ont revitalisé le débat sur les déterminants des crises de change. En effet, la crise coréenne semble différer de celles qui l'ont précédée en ce que les spéculations des investisseurs internationaux sont expliquées non seulement par une prophétie auto-réalisatrice mais aussi par l'effet sousjacent des fondamentaux bien que ce pays ait souvent été considéré comme le prototype de pays émergent à forte croissance et stabilité macroéconomique. Les développements théoriques récents notamment les modèles avec clause de sortie, ont donné à cette intuition une certaine consistance. En effet, Jeanne (1997) a donné une forme théorique accomplie de cette thèse. Il a montré qu'une attaque spéculative peut intervenir au sein d'une zone intermédiaire critique des fondamentaux caractérisée par des équilibres multiples. Cette attaque est qualifiée d'auto-réalisatrice dans la mesure où elle résulte non pas d'une modification des fondamentaux, mais d'un changement de comportement des opérateurs. En effet, Ratti et Seo (2003)1 fournissent quelques évidences concernant la Corée qui s'est trouvée dans une zone d'équilibres multiples avec des spéculations auto-réalisatrices durant la période 1997 et 1998. En effet, leurs résultats suggèrent que la Corée a pu avoir été vulnérable aux es multiples et aux spéculations auto-réalisatrices dès janvier 1997 durant les faillites bancaires. Ils montrent également que les fondamentaux de la Corée, sont entrés dans une zone d'équilibres multiples vers le mois d'octobre 1997 jusqu'à mars 1998. Cette situation réapparaît en mai et juin 1998 avant que les fondamentaux se stabilisent en juillet 1998. Ils concluent ainsi que leurs résultats confirment le rôle de la faiblesse des fondamentaux et des croyances auto-réalisatrices dans l'explication des crises de change. Malgré les progrès accomplis dans ce domaine par les estimations des modèles avec clause de sortie, ces modèles d'équilibres multiples n'arrivent pas jusqu'à nos jours à combler un vide de la théorie lié à l'indétermination de la variable « tache solaire » (sunspot). 2 des croyances des investisseurs, Masson (1999a) introduit dans un modèle avec clause de sortie un événement publiquement observable à savoir la réalisation d'une crise dans un autre pays. Il montre ainsi théoriquement qu'une crise dans un pays peut coordonner et polariser les anticipations des investisseurs vers le mauvais équilibre dans une autre économie. Par ailleurs, il inclut également dans son modèle des causes liées aux fondamentaux ; la coordination des investisseurs ne peut se réaliser sans que le pays présente une certaine vulnérabilité sousjacente caractérisant une zone intermédiaire des fondamentaux conformément à l'idée de Jeanne. L'objectif de ce papier est alors d'estimer un modèle non linéaire avec équilibres multiples qui vérifie la complémentarité entre la contagion et la dégradation des fondamentaux dans le changement des anticipations du marché des changes coréen. Ce papier propose ainsi une méthodologie empirique permettant de rendre compte de la dynamique des anticipations des investisseurs sans avoir à se référer à un phénomène de type tache solaire, qui n'est en effet que l'expression de notre ignorance du processus. Pour ce faire, nous nous référons à un modèle avec clause de sortie. Nous nous basons ainsi sur le modèle de Jeanne et Masson (2000). Plusieurs raisons expliquent ce choix. En premier lieu, les modèles avec clause de sortie permettent de modéliser les croyances des investisseurs au sein d'une situation d'équilibres multiples. En second lieu, grâce à ce type de modèle, il est possible d'intégrer les logiques « fondamentalistes » et autoréalisatrices et montrer leur imbrication dans la polarisation des anticipations vers l'équilibre de crise, alors que les explications traditionnelles considèrent ces logiques comme deux types d'explications possibles, mais alternatives crises financières. Enfin, nous choisissons le modèle de Jeanne et Masson (2000), parce qu'il offre l'avantage d'être estimable empiriquement sous la forme de changement de régime de Markov. Cependant, contrairement à Jeanne et Masson (2000), nous modélisons les probabilités de transition entre les états de l'économie de manière à pouvoir identifier un effet de contagion. Nous estimons notre modèle dans le cas de la crise de change coréenne. Afin d'étendre les résultats de Ratti et Seo (2003) sur la crise qu'a connu ce pays en 1997, nous utilisons pour les fondamentaux, une variable de la fragilité du système bancaire mesurée par les crédits domestiques au secteur privé en pourcentage du PIB. 2. Le modèle Le modèle que nous présentons dans cet article est similaire dans sa forme réduite à celui de Jeanne et Masson (2000). Le modèle représente la décision des autorités monétaires de maintenir ou non le régime de change fixe. L'attitude du gouvernement est alors stochastique. En effet, les autorités monétaires décident de dévaluer ou non en comparant le bénéfice et le coût de maintien du taux de change. Les autorités dévaluent si le bénéfice net du maintien est négatif. Le modèle étudie l'imbrication entre les fondamentaux et les spéculations auto- réalisatrices dans la crise de change coréenne. Donc, le bénéfice net du maintien dépend non seulement des objectifs en terme des fondamentaux économiques, mais aussi de la crédibilité de l'autorité dans le maintien de la fixité du taux de change. Cette crédibilité agit sur le bénéfice du maintien à travers le niveau du taux d'intérêt. En effet, une baisse dans la crédibilité mène les autorités monétaires à augmenter le taux d'intérêt, ce qui 4 fait que le maintien du taux de change devient plus coûteux en raison de différents mécanismes induits par cette hausse du taux d'intérêt : freinage de l'activité économique, fragilisation du système bancaire, augmentation de la dette publique3. Nous supposons alors que la fonction du bénéfice net (Bt) coréenne dépend positivement de la robustesse du système bancaire et du déficit du compte courant4. Cependant, cette fonction dépend négativement de la probabilité de dévaluation à la date (t+1) évaluée par le secteur privé à la date (t), π t. Plus formellement, le bénéfice net du maintien à la période (t) peut être écrit sous la forme réduite suivante : B(φt, π t ) (1) où φt est une variable qui reflète les fondament aux économiques exogènes comme la faiblesse bancaire et le déficit du compte courant qui influencent la décision de l'autorité monétaire de dévaluer ou non à la date t. Elle inclue les valeurs passées ainsi que les valeurs futures anticipées des fondamentaux économiques5. Nous supposons que cette variable est stochastique. Les mouvements des fondamentaux sont alors représentés par un processus Markovien dont la fonction de distribution cumulative relative à une transition est représentée comme suit : F (φ, φ ′) = Pr ob(φ t +1 < φ ′ / φt = φ ) (2) Nous supposons également dans le même sens, que les fondamentaux ne sont pas négativement autocorrélés. 5 π t = prob( Bt +1 (φt +1, π t +1 ) < 0 / φt ) (3) Cette équation (3) montre le caractère forward-looking de la vision des spéculateurs (Jeanne et Masson, 2000), ce qui s'avère une propriété très importante dans la logique des spéculations auto-réalisatrices. En effet, les anticipations des spéculateurs dépendent non seulement des croyances des spéculateurs concernant les fondamentaux futurs φt +1 7, mais aussi des croyances futures des autres spéculateurs évaluées par π t +1. Puisque le spéculateur rationnel sait que les anticipations des autres spéculateurs influencent le coût du maintien du taux de change dans la période suivante, elles influencent par conséquent la fonction objectif d'une dévaluation. L'équation (3) résume ainsi la relation entre les fondamentaux et les anticipations de dévaluation caractérisées par les hypothèses du modèle. L'équilibre est alors caractérisé en déterminant le processus stochastique π qui représente les solutions de l'équation ci-dessus pour n'importe quelle évolution des fondamentaux φ. 2.1. Equilibres multiples basés sur les fondamentaux Supposons dans un premier cas que l'état de l'économie est déterminé uniquement par les fondamentaux exogènes φt. Il y a un niveau critique des fondamentaux φ * encore appelé seuil des fondamentaux au dessous duquel l'autorité monétaire opte pour une dévaluation et au dessus duquel l'autorité maintient le taux de change. Ce niveau est déterminé comme le point de rencontre entre les anticipations des spéculateurs et la politique de l'autorité monétaire. Soit par ailleurs φ * le niveau des fondamentaux au dessous duquel les spéculateurs e anticipent une dévaluation par l'autorité. Alors, chaque spéculateur estime à la date t une probabilité de dévaluation mesurée par la probabilité d'avoir des fondamentaux à la période suivante inférieurs à φ * : e π t = prob(φt +1 < φ * / φt ) = F (φt, φ * ) (4) e e L'objectif de l'autorité monétaire est de trouver la stratégie optimale avec laquelle elle détermine le niveau des fondamentaux étant donnée les anticipations des spéculateurs. Le niveau choisi par l'autorité φ * est déterminé par la fonction du bénéfice net : B (φ, F (φ, φ * )) (5) e 7 Ces croyances sont évaluées conditionnellement au niveau actuel des fondamentaux. 6 Ce niveau φ * est déterminé de telle façon que cette fonction de bénéfice net soit négative pour φ inférieure à φ * et positive pour φ supérieure à φ *. Puisque cette fonction de bénéfice net est une fonction strictement croissante en fonction des fondamentaux, le niveau des fondamentaux φ * est unique et il vérifie un bénéfice net égal à zéro. Nous notons ce niveau φ * par H (φ * ) 8. Dans un équilibre avec des anticipations rationnelles, les croyances e des spéculateurs doivent être vraies. φ * doit correspondre alors au seuil choisi par l'autorité e monétaire tel que : φ * = H (φ * ). Cette dernière équation montre que le niveau des fondamentaux au-dessous duquel les spéculateurs anticipent une dévaluation, est le même que celui au-dessous duquel l'autorité choisit de dévaluer également. Mathématiquement, cette fonction H (.) est croissante. Donc, cette équation admet toujours une solution qui assure l'existence d'au moins un équilibre basé sur les fondamentaux. Une situation de plusieurs équilibres est aussi envisagée. Sous ces conditions, Jeanne et Masson (2000) montrent à partir d'une simulation9 la possibilité de trois niveaux du seuil critique calculé par l'autorité * 10 monétaire tel que φ I* < φ II* < φ III. D'après Jeanne et Masson (2000), cette multiplicité est possible vu qu'il y a une complémentarité stratégique entre les anticipations du marché pour la règle de décision du gouvernement et la règle qui est effectivement choisie par l'autorité : les spéculateurs forcent l'autorité à subir des coûts en augmentant leurs estimations du seuil critique qui déclenche la dévaluation φ *. L'autorité est incitée alors à mettre à jour son seuil e φ * en l'ajustant vers le haut. Il peut donc exister une pluralité d'équilibres basés sur les fondamentaux, avec des règles différentes du gouvernement et des niveaux différents des anticipations de dévaluation, engendrant des sauts de l'économie entre différents régimes avec l'évolution des anticipations du secteur privé. Cependant, Jeanne et Masson (2000) supposent qu'à coté des fondamentaux, le saut entre les régimes peut être véhiculé par une incertitude extrinsèque – une variable tache solaire – qui polarise les anticipations du secteur privé sur un régime ou un autre. 8 Cf. Jeanne et Masson (2000) pour une présentation des arguments concernant l'existence de cette fonction. Ils utilisent une fonction de bénéfice B (φ, π ) = 1 + 0,3φ − 2π avec une φ est identiquement, indépendamment et normalement distribué. 10 Les solutions peuvent même être plus que trois. 9 7 2.2. Equilibres multiples de tache solaire Supposons que l'économie peut prendre n régime St (S1, S2,, Sn). Comme dans Jeanne (1997) et Jeanne et Masson (2000), nous supposons que la transition entre ces régimes suit un processus Markovien indépendamment des fondamentaux, caractérisé par une matrice de transition Θ = [θ (i, j )]1≤i, j ≤ n. Chaque régime est caractérisé par un niveau critique de fondamentaux spécifique φ S*. Alors, si à l'instant t, le régime est Sn, l'autorité dévalue si et seulement si φt < φ n*. Nous supposons que les seuils du niveau des fondamentaux pour chaque régime, sont classés dans un ordre croissant tel que φ1* < φ 2* < < φ n*, ce qui fait que si l'autorité a choisi de dévaluer pour un régime quelconque St, elle dévalue également si l'économie est dans n'importe quel régime plus élevé que St (St+1, St+2, ). Dans l'équilibre tache solaire, la probabilité de dévaluation dépend ainsi conjointement du régime de l'économie et des fondamentaux. Plus formellement, elle est égale à la somme des probabilités de dévaluation à la période suivante, pondérées par les probabilités des transitions du régime actuel vers un régime futur : π t = ∑ θ (st, s )F (φt, φ s* ) (6) n s =1 Dès lors, la fonction du b énéfice du gouvernement dans le régime actuel, dépend des probabilités des transitions ad hoc vers les autres régimes. Elle dépend aussi des seuils des fondamentaux relatifs à ces régimes au dessous desquels la transition vers les autres régimes se réalise. Dans un régime s, la fonction du bénéfice net est donnée n par B(φ, ∑ θ ( s, s') F (φ, φ s*' )). Notons enfin que l'autorité monétaire doit choisir un niveau s '=1 unique φ s*, noté par H s (φ1*,, φ n* ) relativement à l'existence de n régimes, pour lequel ce bénéfice net soit égal à zéro. Ce niveau satisfait l'équation du point fixe de l'autorité φ * = H (φ * ) tel que : φ s* = H (φ1*,, φ n* ) (7) ∀s = 1,, n, L'équilibre tache solaire est ainsi caractérisé par le vecteur (φ1*,, φ n* )' 11 qui vérifie les n contraintes représentées par l'équation (7). D'après Jeanne et Masson (2000), cet équilibre existe si et seulement si, il y a une multiplicité d'équilibres basés sur les fondamentaux. Alors, 11 Notons que l'équilibre basé sur les fondamentaux n'est qu'un cas particulier de l'équilibre tache solaire tel que la matrice des probabilités des transitions entre les régimes θ est égale à une matrice identité. En effet, dans ce cas l'économie est toujours dans le régime initial et nous disposons seulement d'un seul seuil. 8 si cette condition est satisfaite, il est possible de construire un équilibre tache solaire avec n'importe quel nombre de régime n12. En fait, ce nombre de régimes peut être arbitrairement large. Cela implique que les régimes sont arbitrairement très proches ou définis comme un continuum. Il en résulte ainsi qu'un régime peut être créé entre deux régimes déjà existants13. Toutefois, cette propriété n'a pas été vérifiée dans les modèles de seconde génération (Obstfeld, 1994 ; 1996 ; Jeanne, 1997). Ces travaux montrent que le nombre de régimes ne peut pas être supérieur à trois. D'après Jeanne et Masson (2000) cette différence est due aux hypothèses liées au timing de la dévaluation anticipée. En effet, dans les travaux antérieurs, le bénéfice net du maintien à une période donnée t ( B(φ, π t −1 ) ), dépend des anticipations de dévaluation calculées à la période précédente (t-1), ce qui fait que l'équation (3) est remplacée par : π t = prob( Bt +1 (φt +1, π t ) < 0 / φt ). Cette dernière équation peut ainsi avoir des solutions multiples caractérisées par une vision de court terme (closed-loop) des spéculateurs, ce qui engendre un nombre de solutions qui ne peuvent pas dépasser trois. Contrairement à cette hypothèse, le modèle de Jeanne et Masson (2000) ainsi que celui de Krugman (1996), supposent que le bénéfice net du maintien dépend des anticipations pour la période suivante, ce qui engendre des problèmes de visions ouvertes (open-loop) dans la détermination des solutions. Le nombre des équilibres possibles est ainsi élargi et peut être supérieur à trois. Cependant, Jeanne et Masson (2000) montrent que pour qu'un équilibre tache solaire existe , la probabilité de dégradation dans les fondamentaux F (φ, φ ) doit être une fonction strictement croissante des fondamentaux φ, au moins sur certain intervalle14. Par ailleurs, l'équilibre tache solaire ne peut pas être réalisé pour trois cas : (i) les fondamentaux sont toujours décroissants tel que Pr obt [φt +1 < φt ] = 1 ; (ii) les fondamentaux sont toujours croissants tel que Pr obt [φt +1 < φt ] = 0 ; (iii) les fondamentaux suivent une marche aléatoire tel que Pr obt [φt +1 < φt ] = 1 15. En effet, les résultats de Krugman (1996) montrent bien le premier 2 cas où les fondamentaux sont toujours en dégradation. 9 suite au mouvement des fondamentaux, la date effective de la dévaluation sera alors déterminée par un processus d'induction à rebours (backward induction). 2.3. Méthodologie d'estimation du modèle par un modèle avec changement de régime de Markov 'Markov-switching regimes models' (MSR) Afin d'expliquer les anticipations des marchés, les premiers travaux empiriques se sont efforcés d'expliquer le changement entre les régimes sans faire appel au rôle des fondamentaux (Engle et Hamilton, 1990 ; Van Norden, 1996)16. Pour ce faire, les auteurs se sont basés sur le modèle avec changement de régime de Markov développé dans les travaux de Hamilton17. Dans ces travaux, le changement entre les régimes est interprété comme un changement des anticipations des investisseurs bien que le modèle de Hamilton ne soit pas un modèle structurel d'équilibres multiples comme celui discuté ci-dessus. Cependant, nous nous inspirons de la méthodologie de Jeanne et Masson (2000) afin d'estimer notre modèle (équation 6). En effet, Jeanne et Masson (2000) interprètent le modèle MSR qui modélise les anticipations de dévaluation, comme une forme réduite linéarisée du modèle structurel de clause de sortie avec tache solaire. Le saut associé à la variable tache solaire, entre les équilibres, est caractérisé par le saut entre les régimes suivant un processus de Markov. Considérons l'équilibre tache solaire, discuté ci-dessus, avec n régimes et n seuils tel que φ1* < φ 2* < < φ n*, nous supposons que la variable fondamentale est un indice linéaire qui agrège les variables macroéconomiques. Notons que les variables macroéconomiques sont celles utilisées par l'autorité afin de choisir de maintenir le taux de change ou de dévaluer : φt = α'xt + η t (8) où α = (α 1, α 2,, α k )' est le vecteur des coefficients. xt = ( x1t, x 2t,, x kt )' est le vecteur des fondamentaux économiques. Dans le cas de notre modèle, ces fondamentaux sont la fragilité du système bancaire et le déficit du compte courant. η est un terme stochastique identiquement et indépendamment distribué qui reflète d'autres déterminants du comportement de l'autorité. 16 17 Ces auteurs étudient la dynamique des taux de change flottant en utilisant le modèle MSR. Outre l'application aux crises financières, le modèle MSR a été utilisé afin de modéliser d'autres phénomènes économiques, comme le cycle des affaires (Hamilton, 1989), la structure des taux d'intérêt (Hamilton, 1988) et les marchés boursiers (Cecchetti, Lam et Mark, 1990). 10 Afin de linéariser notre modèle, nous supposons que les fluctuations de la variable fondamentale ainsi que les différences avec les seuils critiques sont faibles : φt = φ + δφt φ s* = φ * + δ s* où δφt et δφ s* sont des différences premières. Dès lors, l'équation de la probabilité de dévaluation (équation 6) est linéarisée comme suit : π t = γ s + β'xt + vt, st = 1,, n (9) t où γ st est la constante qui dépend du régime. β est le vecteur des coefficients. vt est un choc. Nous supposons que tous les chocs sont identiquement et indépendamment distribués. Cette constante peut être écrite comme une fonction des paramètres structurels du modèle telle que18 : n γ s = F (φ, φ * ) + F2 (φ, φ * )∑ θ ( s, s' )δφ s*' − F1 (φ, φ * )φ s '=1 β = F1 (φ, φ )α * et vt = F1 (φ, φ * )η t L'équation (9) représente un MSR avec n régimes. Le changement du régime affecte la probabilité de dévaluation à travers le changement dans le terme constant de la partie droite de l'équation. Par ailleurs, les coefficients associés aux fondamentaux sont constants quel que soit le régime (une restriction qui n'est pas toujours adoptée dans les MSR). Le changement de régime peut être interprété comme un saut entre les différents états des anticipations du marché dans le modèle avec tache solaire discuté ci-dessus. En effet, un saut à un état avec une forte anticipation de dévaluation rend cette dernière plus probable et fait augmenter par conséquent le terme constant γ. Notons que la vraisemblance du modèle sous sa forme linéaire (MSR) est définie de la même manière que la vraisemblance du modèle structurel avec tache solaire19. Dans le cas 18 Cf. Jeanne et Masson (2000) pour une démonstration complète. 11 particulier où il y a un seul état, le modèle MSR se réduit à une simple régression linéaire qui régresse une probabilité de dévaluation sur les fondamentaux économiques. Afin d'estimer le modèle linéarisé, il suffit de maximiser la fonction de vraisemblance comme pour les modèles de MSR avec plus ieurs régimes. 3. Estimation du modèle : cas de la crise de change coréenne Dans cette section, nous estimons notre modèle avec la procédure de Jeanne et Masson (2000) présentée ci-dessus, afin de tester l'existence des spéculations auto-réalisatrices dans la réalisation de la crise de change coréenne. Cependant, contrairement à Jeanne et Masson (2000), nous testons aussi la complémentarité entre la contagion et la dégradation des fondamentaux. En fait, certains travaux ont montré que le Won coréen a été une victime des attaques spéculatives auto-réalisatrices durant la crise asiatique (Masson,1999 ; Ratti et Seo, 2003). Dans ce travail, nous essayons de vérifier également cette hypothèse, mais en utilisant une méthodologie inspirée du travail de Jeanne et Masson (2000), qui n'a pas été utilisé par les travaux existants sur la crise coréenne. Nous étendons aussi cet essai à l'identification d'un effet de contagion qui explique, à coté de la bifurcation des fondamentaux, le changement dans les croyances des investisseurs provoque le saut d'un équilibre à un autre. Pour ce faire, nous estimons l'équation (9) avec deux régimes. Nous utilisons des données mensuelles de février 1993 jusqu'au décembre 1998. La variable dépendante de notre modèle est la probabilité de dévaluation anticipée par le marché. Cette dernière a été mesurée de différentes manières dans la littérature. Pour la crise coréenne, Ratti et Seo (2003) utilisent la prime du risque du taux de change à terme won/dollar tout en tenant compte des fluctuations dans la bande. Jeanne et Masson (2000) utilisent le différentiel des taux d'intérêt d'un mois entre les instruments Euro-Franc et Euro-DM pour la crise du Franc français en 1992-93. Ils corrigent également le différentiel des taux d'intérêt des mouvements prévus par rapport centre de la bande en utilisant la méthode d'ajustement de Svensson (1993) (Drift adjustment method). Bratsiotis et Robinson (2004) utilisent seulement le différentiel des taux d'intérêt pour le cas mexicain sans faire appel à l'ajustement des dévaluations dans la bande. A l'appui de cette solution, Agénor et Masson (1999) montrent que le différentiel des taux d'intérêt peut expliquer parfaitement les anticipations du secteur privé dans le cas de la crise mexicaine 1994. Tronzano et alii (2003) utilisent également le différentiel des taux d'intérêt afin d'estimer un modèle de MSR relatif à la crise du Franc français. Ils ne l'ajustent pas avec la 19 Notons également que cette vraisemblance n'est pas la même que celle du travail de Jeanne (1997). 12 méthode de Svensen (1993) parce qu'ils estiment que cela donne les mêmes résultats au niveau économétrique. D'après ces auteurs, l'ajustement n'est nécessaire que dans le cas d'une estimation d'un modèle structurel avec plusieurs régimes comme celui de Jeanne (1997). En effet, durant la période de hausse du différentiel des taux d'intérêt, ce dernier représente parfaitement les anticipations d'une dévaluation attendue. Cependant, même si cette approximation n'est pas représentative durant la période de faible différentiel des taux d'intérêt, elle ne biaise pas la séparation entre les deux régimes avec et sans attaques spéculatives. Dès lors, à l'instar de Tronzano et alii (2003), nous approximons la probabilité de dévaluation anticipée, par le différentiel des taux d'intérêt entre le taux d'intérêt coréen et celui des Etats-Unis. Cette mesure nous permet, en effet, d'analyser la dynamique du différentiel des taux d'intérêt. Le graphique (1) de l'annexe retrace l'évolution mensuelle de cette variable pour la période du février 1993 à décembre 1998. 3.1. Fondamentaux macroéconomiques Comme le montre notre modèle théorique, la probabilité de dévaluation est liée à la crédibilité de l'autorité monétaire pour le maintient du taux de change. En effet, l'anticipation d'une dévaluation par le secteur privé ne croit pas arbitrairement mais en fonction de la dynamique sous-jacente de certains fondamentaux indiquant que l'autorité monétaire va dévaluer sa monnaie. Dès lors, à l'instar des travaux antérieurs, le choix des fondamentaux du modèle avec clause de sortie dépend des objectifs macroéconomiques de l'autorité monétaire. Plusieurs travaux utilisent par exemple le niveau de production, le taux d'inflation (Ozkan et Sutherland,1995). Jeanne (1997) et Jeanne et Masson (2000) utilisent, quant à eux, pour la crise du système monétaire européen, le taux de chômage, le compte courant et le taux de change effectif réel comme des variables fondamentales qui influencent la tentation du gouvernement de sortir du régime de change. Bratsiotis et Robinson (2004) examinent les faits stylisés de la crise mexicaine et concluent que la variable dettes publiques est une variable fondamentale qui agie significativement dans la probabilité de dévaluation. Cependant, le choix de ce type de fondamentaux pour la crise coréenne, s'avère plus difficile à cause de la stabilité économique qu'a connue ce pays avant la crise. En effet, en 1995 et 1996, la Corée avait une inflation moins de 5 %, une croissance robuste et une balance fiscale positive (Ratti et Seo, 2003). Ces auteurs utilisent donc la variable déficit du compte courant bien qu'ils notent que l'effet de cette variable fondamentale a joué seulement durant la période avant la crise. Le graphique (1) montre que le déficit de la balance du compte courant 13 en Corée suit une dynamique de croissance jusqu'à seulement le mois d' 1997. En effet, cette augmentation du déficit du compte courant est fortement associée à l'appréciation du taux de change coréen. Par ailleurs, depuis avril 1997, le gouvernement a poursuivi une politique active destinée à favoriser les exportations. De ce fait, le déficit du compte courant a été graduellement réduit avant novembre 1997. Ratti et Seo (2003) utilisent également le taux de chômage. Toutefois, comme le montre le graphique (2), nous ne relevons pas une augmentation dans ce taux de chômage qui peut influencer la probabilité de dévaluation durant la période avant le déclenchement de la crise. Graphique (1) : déficit du compte courant (% du PIB ) Graphique (2) : Taux de chômage taux de chômage balance courante (% du PIB) 10 9 8 7 6 5 4 3 2 1 0 2001M5 2000M1 2000M7 2000M2 1999M9 1999M4 1998M1 1998M6 1998M1 1997M8 1997M3 1996M1 -0,06 1996M5 1993M1 2001M5 2000M1 2000M7 2000M2 1999M9 1999M4 1998M1 1998M6 1998M1 1997M8 1997M3 1996M1 1996M5 1995M1 1995M7 1995M2 1994M9 1994M4 1993M1 1993M6 -0,04 1993M1 0 -0,02 1995M1 0,02 chom 1995M7 bc 1995M2 0,04 1994M9 0,06 1994M4 0,1 0,08 1993M1 0,12 1993M6 0,14 Nous suivons Ratti et Seo (2003) et avons considéré dans notre modèle le déficit du compte courant en pourcentage du PIB (cc). Toutefois, nous remplaçons le taux de chômage par le ratio crédits intérieurs au secteur privé sur PIB (cred) 20 qui permet de saisir la faiblesse du système bancaire coréen. En fait, le graphique (3) montre que l'évolution de cette variable 20 Les statistiques des variables du modèle sont extraites de Abiad (2003). Les auteurs remercient Abiad Abdul pour la base de données qui nous a fournie. 14 admet une tendance croissante depuis le début des années 90. Nous pensons que cette dégradation constante de l'état du système bancaire durant la période de stabilité n'a pas un effet direct sur le déclenchement de la crise, mais elle a joué un rôle important dans les anticipations d'une dévaluation par le marché. Dès lors, une faiblesse du système bancaire et une détérioration du compte courante signifient une dégradation des fondamentaux économiques. L'effet de cette dégradation est indirect sur la variable endogène de notre modèle à savoir le différentiel de taux d'intérêt. Nous supposons que cet effet indirect n'est que l'effet de la bifurcation des fondamentaux. Celui-ci peut expliquer le changement dans les croyances des spéculateurs sur le marché des changes l'origine du saut entre les équilibres. Ainsi, les coefficients des variables crédits domestiques et le déficit du compte courant sont a priori de signes positif et négatif respectivement. Comme Jeanne et Masson (2000), une variable tendance (t) est aussi utilisée comme variable explicative dans notre modèle MSR (équation 9). Elle permet de saisir l'évolution temporelle de la réputation de l'autorité monétaire dans le maintien du taux de change fixe. Graphique (3) : crédits domestiques au secteur privé (% du PIB) crédits domestiques au secteur privé en pourcentage du PIB 0,014 0,012 0,01 0,008 0,006 0,004 0,002 2001M5 2000M1 2000M7 2000M2 1999M9 1999M4 1998M1 1998M6 1998M1 1997M8 1997M3 1996M1 1996M5 1995M1 1995M7 1995M2 1994M9 1994M4 1993M1 1993M6 1993M1 0 3.2. Spécification économétrique En utilisant l'équation 9, la spécification de notre modèle devient : π t = γ s + β1 cred + β 2 cc + β 3 t + vt t (10) où la valeur de γ st dépend de l'état { s t } qui n'est pas observable et qui suit un processus markovien d'ordre 1 tel que s t = 0 ou 1. Nous supposons que le terme d'erreur v est normalement distribué avec une variance constante égale à σ v2. Ce terme d'erreur est indépendant du processus { s t }. Nous supposons également que les coefficients des variables explicatives β 1, β 2 et β 3 sont identiques dans les deux états. Les probabilités de transitions 15 ( Pij = Pr( s t = j / st −1 = i ) ) dans ce cas, sont supposées invariantes dans le temps (PTF). Cet indice est construit ici comme une moyenne pondérée de la variation du taux de change nominal, de la variation du taux d'intérêt et du négatif de la variation des réserves de changes (perte de réserves). D'après Tronzano et alii (2003), un problème d'endogéneité sur IND engendre un biais dans les estimations. Donc, nous utilisons les retards afin de nous assurer de l'exogéneité parfaite. 16 A l'instar de Hamilton (1994) et Filardo (1994), nous estimons nos spécifications par la méthode du maximum de vraisemblance qui consiste à trouver le vecteur θˆ estimateur du vecteur des paramètres θ, qui maximise la vraisemblance de l'échantillon utilisé à savoir : T L(θ ) = ∑ log f (π t ;θ ) 23 t =1 Pour ce faire, nous utilisons l'algorithme Espérance-Maximisation « EM » (Expectation - Maximisation algorithm)24. Nous sommes ensuite en mesure de calculer la probabilité de chaque régime conditionnellement à l'observation π t de la date t à savoir Pr( s t = j / π t ;θ ). Par ailleurs, pour comparer différentes spécifications économétriques, nous utilisons le test LR (likelihood ratio test). La statistique de ce test est calculée comme suit : LR = −2(l c − l nc ) ~ χ 2 (k ) où l c et l nc sont les valeurs qui maximisent la fonction de vraisemblance des modèles contraint et non contraint respectivement. k est le nombre de contraintes. Sous l'hypothèse nulle selon laquelle les contraintes sont significatives, la statistique LR suit une distribution asymptotique avec k degrés de libertés correspond au nombre de restrictions. 3.3. Test de multiplicité des équilibres dans la crise de change coréenne Nous commençons notre étude empirique en estimant l'équation (10) sans équilibres multiples. Le modèle est basé uniquement sur les fondamentaux (the purely fundamentalsbased model), selon l'expression de Jeanne et Masson (2000)). Le terme γ de l'équation (10) reste toujours constant quel que soit l'état { s t }. Dès lors, pour estimer cette équation, nous utilisons la méthode des moindres carrées ordinaires (MCO). Les résultats de l'estimation sont représentés dans la première colonne du tableau 1. Tous les coefficients sont statistiquement significatifs et conformes à l'intuition économique à l'exception du coefficient relatif à la variable taux de chômage. Ce dernier n'est pas statistiquement significatif bien qu'il ait le signe attendu (positif). 23 24 Si nous imposons la restriction suivante : p1= p2=q1=q2=0, les probabilités de transition deviennent fixes. Cet algorithme a été proposé par Dempster et alii (1977). Il permet de trouver le maximum de vraisemblance des paramètres de modèles probabilistes lorsque le modèle dépend de variables latentes non observables. Cf. Dielbold et alii (1994) pour plus de description de l'algorithme EM. 17 Tableau 1 : Résultats des estimations des trois spécifications Paramètres MCO PTF PTV β1 29.767(4.743) 6.837(1.195) 9.894(2.008) β2 -41.625(-3.746) -0.921(-8.327) -0.468(-6.24) β3 -0.093(-3.451) 0.044(1.571) 0.049(2.041) γ0 -9.792 (-2.616) -2.382(-0.795) -3.567(-1.315) 8.486(2.478) 1.968(0.667) 4.435 3.736 γ1 σ2 8.238 -0.399(-0.518) -1.429(-1.9) -0.316(0.887) 0.298(0.623) q1 q2 p1 2 P00 P11 P10 P01 Log (L) LR 0.959 0.98 0.02 0.041 -161.973 23.226 -173.55 -154.96 14.026 * Les chiffres entre parenthèses sont des t de Student. Les deuxième et troisième colonnes du tableau (1) donnent les résultats des estimations de l'équation (10) avec des probabilités de transition fixes et variables respectivement. Pour aboutir à des estimateurs qui maximisent la fonction de vraisemblance, nous avons programmé l'algorithme EM sous GAUSS 7.0. Nous avons utilisé alors la librairie OPTIMUM afin d'avoir les estimations finales. Les résultats des estimations de la deuxième spécification (colonne 2) montrent que le modèle avec deux états dont les probabilités de transitions sont fixes, s'avère meilleur que le modèle linéaire. En effet, la qualité du modèle s'est considérablement améliorée : la variance estimée des erreurs a baissé (elle est devenue égale à 4.435 dans la deuxième spécification après avoir été égale à 8.238 dans le modèle linéaire), le logarithme de vraisemblance est plus élevé dans la deuxième spécification (-161.973) que dans le modèle linéaire (-173.55) et les valeurs de la constante entre les deux états sont substantiellement différents ( γ 0 = -2.382 et γ 1 = 8.486). En nous référant également au test LR, nous retenons aussi la deuxième spécification par rapport à la première qui représente le modèle linéaire. La statistique LR, dans ce cas, est égale à 23.226. Cette valeur est bien supérieure aux valeurs critiques données par une statistique de χ 2 avec 1 degré de liberté aux seuils de 1%, 5% et 10% (respectivement égales à 6.635, 3.841 et 2.706). Nous rejetons alors l'hypothèse nulle qui vérifie les contraintes représentées par le modèle linéaire. Ce résultat fournit alors une évidence empirique de la présence d'une situation d'équilibres multiples avec des attaques spéculatives autoréalisatrices. En fait, nous identifions empiriquement la présence de deux équilibres caractérisant la crise de change auto-réalisatrice en Corée durant la dernière décennie. D'après nos résultats, nous pouvons penser également que le saut de l'équilibre de stabilité vers l'équilibre de crise est véhiculé par une variable tache solaire non observable. La colonne 2 fournit aussi les estimateurs des probabilités de transition entre les états. La probabilité de transition d'un état de stabilité vers un état de crise est très faible (P01=0.041). La probabilité de transition d'un état de crise vers un état de stabilité est également faible (P10 = 0.02). Ces faibles probabilités vérifient une relative stabilité des états; Chaque état demeure dominant dans une longue sous période de la période d'estimation. Le passage entre les deux états n'est pas très fréquent au cours du temps. Ceci est montré dans le graphique (4) ci-dessus dont la courbe en pointillés retrace l'évolution de la probabilité de l'état de tranquillité en Corée calculée à partir des résultats des estimations de la deuxième spécification. Ceci peut être expliqu par l'utilisation d'une longue période d'estimation caractérisée par une seule sous période de crise correspondant à 1997-1998. Graphique (4) : probabilités de l'état St = 0 en Corée calculées avec PFT et PVT Probabilités de l'état St = 0 1,2 1 0,8 PVT 0,6 PFT 0,4 0,2 19 93 19 M2 93 19 M6 93 M 19 10 94 19 M2 94 19 M 94 6 M 19 10 95 19 M2 95 19 M 95 6 M 19 10 96 19 M2 96 19 M 96 6 M 19 10 97 19 M2 97 19 M 97 6 M 19 10 98 M 19 2 98 19 M 98 6 M 10 0 19 3.4. Identification de la contagion La troisième colonne du tableau 1, fournit les résultats des estimations de l'équation (10) en utilisant des probabilités variables de transition entre les états en fonction de l'IND de la Thaïlande et de celui de l'Indonésie. Nos résultats montrent ainsi que cette troisième spécification est meilleure que la deuxième spécification avec des probabilités de transition fixes. En effet, nous remarquons la nette amélioration dans la qualité statistique de cette troisième spécification : la variance estimée des erreurs a baissé (elle est devenue égale à 3.736 dans la troisième spécification après avoir été égale à 4.435 dans la deuxième spécification), le logarithme de vraisemblance est plus élevé dans la troisième spécification (-154.96) que dans la deuxième spécification (-161.973) et les valeurs de la constante restent aussi substantiellement différentes entre les deux états ( γ 0 = -3.567 et γ 1 = 1.968). En outre, le résultat du test LR, présenté dans la troisième colonne du tableau 1, montre bien la supériorité de cette troisième spécification par rapport à la deuxième. La valeur calculée de la statistique LR, égale à 14.026, est bien supérieure aux valeurs critiques données par une statistique de χ 2 avec 4 degré de liberté25 aux seuils de 1%, 5% et 10% (respectivement égales à 13.277, 9.488 et 7.779). Nous rejetons alors l'hypothèse nulle selon laquelle nous acceptons la deuxième spécification. Nous retenons donc la troisième spécification qui lie la probabilité de dévaluation anticipée du won coréen aux indices de crise en Thaïlande et en Indonésie. Nous remarquons, à partir de nos résultats, le signe négatif des coefficients q1 et q2. Ce qui montre qu'une augmentation de l'indice d'attaques spéculatives sur le marché des changes thaïlandais et encore plus le marché indonésien (le coefficient q2 est statistiquement significatif) engendre une baisse dans la probabilité de maintien de l'état de tranquillité en Corée. En d'autres termes, une crise de change en Thaïlande ou en Indonésie réduit les chances de préserver la stabilité en Corée. Elle risque donc de faire passer l'économie coréenne de l'état de stabilité vers l'état de crise. Dès lors, nous montrons que l'effondrement des marchés des changes thaïlandais et indonésien, saisies ici par les indices de crises IND, a déclanché la crise en Corée en renforçant les anticipations de dévaluation du won coréen par les spéculateurs sur le marché des changes coréen. que le coefficient p2 est positif contrairement au signe du coefficient p126. Ceci montre qu'une fois la crise est déclanché en Corée, seulement l'augmentation de l'intensité spéculative dans le marché des changes indonésien qui assure l'augmentation de la probabilité de rester dans l'état de crise. En d'autres termes, ce résultat montre que durant la crise en Corée, les spéculateurs sur le marché coréen ne sont influencés que par le déroulement de la crise en Indonésie en omettant la crise en Thaïlande qui a, toutefois, joué un rôle dans le déclenchement de la crise coréenne. Nous fournissons ainsi une évidence empirique que le déclenchement de la crise asiatique peut expliquer, même partiellement, le changement dans les croyances du marché des changes coréen. Ce résultat montre la présence de la contagion qui a engendré la crise coréenne. La courbe en continue dans le graphique (4) montre ainsi l'évolution de la probabilité de l'état de tranquillité en Corée calculée à partir des résultats des estimations de l'équation (10) avec des probabilités de transitions en fonction des mouvements des indices de crises thaïlandaise et indonésienne. Cependant, la significativité statistique de toutes les variables macroéconomiques, vérifie aussi la contribution de la bifurcation des fondamentaux dans l'explication du saut entre les équilibres dans le contexte d'une crise de change auto-réalisatrice. En effet, les coefficients des crédits domestiques en pourcentage du PIB et du déficit du compte courant en pourcentage du PIB, ont des signes attendus et statistiquement significatifs au seuil de 5% (les t de Student sont respectivement égaux à 2.008 et -6.24 et supérieurs en valeur absolue à la valeur critique 1.96). Ce résultat de la significativité de la bifurcation des fondament dans la réalisation de la crise coréenne confirment celui de Ratti et Seo (2003) qui ont estimé un modèle non linéaire (selon l'approche de Jeanne 1997) dans lequel ils expliquent la probabilité de dévaluation en utilisant aussi le déficit du compte courant. Ils trouvent aussi que l'évolution des fondamentaux vers la zone des spéculations auto-réalisatrices est déterminée notamment par le déficit du compte courant. Dans cet article, nous étendons les résultats de Ratti et Seo (2003) en montrons l'importance du rôle joué par la fragilité du système bancaire dans le changement des croyances concernant le marché coréen lors de l'épisode de la crise asiatique. En fait, depuis juillet 1997, les apports de capitaux en Corée ont ralenti puis se sont inversés. 21 coréenne a perdu ainsi 15 milliards de dollars américains de réserves pendant le mois de novembre 1997. Cet épuisement a provoqué une attaque spéculative contre le won coréen. Les banques coréennes eurent des difficultés à emprunter des devises à court terme et la prime du risque associée au taux de change won/dollar a augmenté en valeur absolue à partir du mois d'août 1997. Les fondamentaux de la Corée sont entrés dans la zone des équilibres multiples durant cette période jusqu'au mois d'avril 1998. Notons que notre méthodologie basée sur l'utilisation du modèle à changement de régimes de Hamilton, parait plus apte à vérifier la théorie des équilibres multiples qui modélise les croyances des investisseurs, que celle du modèle avec clause de sortie. Ce dernier est en effet plus restrictif. Comme le remarquent Jeanne et Masson (2000), il contraint les estimations en supposant la situation des équilibres multiples. A l'inverse, avec notre méthodologie, nous avons révélé empiriquement (et non supposé) cette multiplicité des équilibres. Enfin, nos résultats montrent que la crise peut être expliquée par un changement soudain dans les anticipations des investisseurs. Ce changement est déterminé par deux facteurs qui demeurent imbriqués à savoir la situation intermédiaire des fondamentaux et la réalisation d'une crise dans un autre pays. Les implications de notre analyse en terme de politique économique sont à la fois évidentes et complexes. Puisque la crise subie par la Corée combine à la fois l'influence des fondamentaux et d'une rupture auto-réalisatrice dans les « croyances du marché », les mesures préventives qu'il convient de mettre en place doivent, elles aussi combiner l'action visant à préserver l'état des fondamentaux et l'action visant prévenir les conséquences perturbatrices des brusques changements d'opinion des opérateurs. Mais, de ce fait même, l'action des autorités est nécessairement complexe. En effet, les fondamentaux, comme nous l'avons vu ne se limitent pas à la dégradation du compte courant et à l'état des réserves de change. Ils sont plus diversifiés et d'ordre non seulement macroéconomiques, mais aussi micro ou mésoéconomiques. Notre étude, comme plusieurs autres, montre en particulier le rôle important joué par la fragilité du système bancaire dans le contexte de la crise asiatique, ce qui impose une action plus fine et plus diversifiée de la part des pouvoirs publics. 4. Conclusion Dans cet article, nous avons tenté d'identifier la contagion à travers une étude empirique de la dynamique des anticipations des investisseurs. En nous basant sur une représentation sous une forme réduite d'un modèle avec clause de sortie (analogue à celui de Jeanne et Masson, 2000), nous avons pu caractériser un équilibre fondé conjointement sur la bifurcation des fondamentaux et la variable tache solaire qui véhicule la transition entre n régimes de l'économie. A l'instar de Jeanne et Masson (2000), nous avons montré que cette approche peut se prêter utilement à des études empiriques en l'enrichissant par le modèle à changement de régime de Markov construit par Hamilton (1994). A cet effet, nous avons étudié empiriquement le cas de la crise de change coréenne. Pour cela, nous avons construit trois spécifications économétriques modélisant les mouvements des anticipations des investisseurs : la première est basée seulement sur les fondamentaux (the purely fundamentals-based model), tandis que la deuxième est basée sur un modèle avec changement de régime. La transition entre les états est interprétée comme étant un saut auto-réalisateur dans les croyances du marché. Enfin, dans la troisième spécification, nous avons relié les probabilités de transition entre les états à l'indicateur de crise thaïlandais et indonésienne afin d'expliciter un effet de contagion. En allant à l'essentiel, deux conclusions peuvent être tirées de notre essai empirique. Premièrement, en utilisant une méthodologie basé sur le MSR, nous étendons les résultats de Ratti et Seo (2003) qui ont estimé un modèle structurel pour la Corée. En effet, le résultat du test LR qui suggère le maintien de la spécification avec changement de régime, confirme que la Corée s'est effectivement trouvée dans une zone d équilibres multiples avec des spéculations auto-réalisatrices durant la crise asiatique. Par ailleurs, en plus du déficit du compte courant vérifié déjà par Ratti et Seo (2003), nous vérifions que la fragilité du système 23 bancaire coréen confirme également le rôle de la bifurcation des fondamentaux. En second lieu, notre modèle montre que le basculement de la Corée de l'équilibre de tranquillité vers l'équilibre de crise peut être expliqué par l'augmentation des pressions spéculatives sur le marché des changes thaïlandais et indonésien. En témoigne la supériorité de la qualité statistique de la troisième spécification de notre modèle qui fait dépendre les probabilités de transition, en Corée, des indices de crise thaïlandais et indonésien. Nous ne l'avons pas fait dans ce travail à cause de la disponibilité des données relatives à Taiwan. Agénor P. et Masson P.R. (1999), Credibility, reputation, and the Mexican peso crisis. Journal of Money, Credit and Banking. 31 (1): 70–84. Alvarez-Plata P. et Schrooten M. (2006), The Argentinean currency crisis: a Markovswitching model estimation. The Developing Economies, XLIV-1: 79–91 March. Bratsiotis, G.J., Robinson W. (2004), Economic fundamentals and self-fulfilling crises: further evidence from Mexico, Journal of International Money and Finance. 23: 595-613. Cecchetti, S.G., Lam, P., Mark, N.C. (1990), Mean reversion in equilibrium asset prices, American Economic Review. 80(3): 398-418, June. Dempster, A.P., Laird, N.M., Rubin, D.B. (1977), Maximum likelihood from incomplete data via the EM algorithm, Journal of the Royal Statistical Society. 39: 1–38. Dielbold F.X.et Lee J.H. Weinbach (1994), Diebold, F.X., Lee, J.-H. and Weinbach, G. (1994), "Regime Switching with Time-Varying Transition Probabilities". In C. Hargreaves (ed.), Nonstationary Time Series Analysis and Cointegration. (Advanced Texts in Econometrics, C.W.J. Granger and G. Mizon, eds.), Oxford University Press. Oxford: 283302. Engle, C., Hamilton, J (1990), Long swings in the dollar: are they in the data and do markets know it?, American Economic Review. 80 (4): 689-713. Filardo, A.J. (1994), Business cycle phases and their transitional dynamics, Journal of Business and Economic Statistics. 12: 299-308. Hamilton, J.D. (1988), Rational-expectations econometric analysis of changes in regime: An investigation of the term structure of interest rates, Journal of Economic Dynamics and Control. 12: 385-423. Hamilton, J.D. (1989), A new approach to the economic analysis of nonstationary time series and the business cycle, Econometric . 57: 357-384. Hamilton, J.D. (1994), « Time Series Analysis », Princeton University Press, Princeton Jeanne, O. (1997), Are currency crises self-fulfilling? A test, Journal of International Economics. 43: 263 – 286. Jeanne, O., Masson, P. (2000), Currency crises, sunspots and Markov-switching regimes. Journal of International Economics 50: 327-350. 25 Krugman, P. (1996), Are currency crises self-fulfilling, NBER Macroeconomics Annual, Cambridge: MIT Press, MA: 345-378. Masson P. R. (1999), Contagion: macroeconomic models with multiple equilibria, Journal of International Money and Finance.18: 587-602. Obstfeld, M. (1994), The logic of Currency crises, Banque de France, Cahiers économiques et monétaires. 43: 189–214. Obstfeld, M. (1996), Model of currency crises with self-fulfilling features, European Economic Review. 40:1037-1047. Park, Y.C., Song, C.-Y. (1999), Financial contagion in the East Asian Crisis -With special reference to the Republic of Korea-, www1.worldbank.org/economicpolicy/ managing%20volatility/ contagion/documents/ Park-Song.pdf. Ratti, R.A., Seo, J. (2003), Multiple equilibria and currency crisis: evidence for Korea, Journal of International Money and Finance. 22: 681-696. Stiglitz, E.J., (2002), La Grande Désillusion, Librairie Arthème Fayard. Svensson, L. (1993), Assessing target zone credibility: Mean reversion and devaluation expectations in the ERM, 1979-92 », European Economic Review. 37: 763–802. Tronzano, M., Psaradakis, Z., Sola, M. (2003), Target zone credibility and economic fundamentals », Economic Modelling. 20:791-807. Van Norden, S. (1996), Regime switching as a test for exchange rate bubbles, Journal of Applied Econometrics. (11): 219-251. -2 -4 -6 1998M11 1998M8 1998M5 1998M2 1997M11 1997M8 1997M5 1997M2 1996M11 1996M8 1996M5 1996M2 1995M11 1995M8 1995M5 1995M2 1994M11 1994M8 1994M5 1994M2 1993M11 1993M8 1993M5 -4 1998M2 1998M8 1998M11 1998M8 1998M11 1998M5 1998M2 1997M11 1998M5 1997M8 1997M 1997M8 1997M5 1996M5 1996M2 1995M11 1995M8 1995M5 1995M2 1994M11 1994M8 1994M5 1994M2 1993M11 1993M8 1993M5 1993M2 1997M2 0 1997M5 2 1997M2 4 1996M8 6 1996M11 8 1996M11 IND_Indonésie 1996M8 1996M5 1996M2 1995M11 1995M8 1995M5 1995M2 1994M11 1994M8 1994M5 1994M2 1993M11 1993M8 1993M5 1993M2 -2 1993M2 Annexe Graphique (1) : évolution mensuelle du différentiel des taux d'intérêt et de l'IND indonésien et l'IND thaïlandais.
1,840
26/hal-amu.archives-ouvertes.fr-hal-03208596-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,449
2,391
Point de vue : une le Corin Bou POINT DE VUE Point de vue : une le çon ti rée du confinement , l'histopathologie en visioconférence Point of view : A lesson from lockdown, histopathology through videoconferencing Clém ence Delteil a,b,∗, Aurélie Haffner a, Radia Fritih a, Corinne Bouvier a,c, Sébastien Taix d, Nicolas Macagno a,c a Anatomie pathologique, AP-HM, CHU de Timone, Marseille, France Institut médico-légal de Marseille, AP-HM, CHU de Timone, 264, rue St-Pierre, 13385 Marseille, France c Aix-Marseille Université, Inserm, MMG, Marseille, France d Biopathologie, institut Paoli-Calmettes, Marseille, France b MOTS CLÉS Confinement ; Visioconférence ; Enseignement ; Télépathologie ; Télédiagnostic ; Lames virtuelles ; Skype KEYWORDS Lockdown; Videoconferencing; ∗ Résumé Le confinement et la distanciation sociale ont généralisé l'usage de la visioconférence, tant dans la sphère privée que professionnelle. Ainsi l'utilisation de la visioconférence a considérablement augmenté durant la période du confinement et cette technologie a été utilisée dans le service d'anatomie pathologique du centre hospitalo-universitaire Timone, à Marseille, à visée universitaire, hospitalière et de recours. Nous apportons notre point de vue concernant l'utilisation de cet outil informatique. La discussion de lames par visioconférence est un exercice nouveau et particulier ; plusieurs recommandations sont émises pour un bon déroulement de ces réunions d'histopathologie à distance. Summary The use of videoconferencing had increased significantly during lockdown. During this period, videoconferencing has been used in the pathological department of pathology (Timone university hospital, Marseille, France) for academic, diagnosis and referral. We correspond mail @ap- m.fr, [email protected] (C. Delteil). https://doi.org/10.1016/j.annpat.2020.09.006 0242-6498/© Teaching; Telepathology; Telediagnosis; Whole slide image; Skype our point of view regarding the use of this tool. As discussing slides through videoconferencing is a new and specific activity, we have also summarised specific recommendations for practical remote histopathology meetings. © 2020 Elsevier Masson SAS . L'utilisation de la visioconférence a considérablement augmenté durant le confinement lié à la crise du COVID-19, tant dans notre sphère privée que professionnelle. Lancer un appel vidéo est devenu très simple, notamment pour les utilisateurs de smartphone où la fonction est généralement native. De manière très intéressante, cette technologie peut être détournée de son utilisation initiale pour observer une lame de microscope par visioconférence, à plusieurs et à distance. Cette prouesse est possible en utilisant une fonction simple et banale : le partage d'écran. La grande majorité des logiciels de visioconférence sont fiables, gratuits et intuitifs. Cette technologie ouvre, pour les pathologistes avertis ou non, des perspectives inédites pour l'enseignement, la corrélation anatomoclinique, la discussion de cas complexes ou rares, ainsi que pour les histoséminaires. Durant cette période inédite, le service d'anatomopathologie de la Timone à Marseille a largement utilisé la visioconférence pour participer aux réunions de concertation pluridisciplinaires (RCP) et en a détourné l'usage pour discuter de lames, donner cours aux internes, organiser des réunions régionales didactiques de dermatopathologie et répondre rapidement à des avis notamment quand le système postal était mis en défaut. Pour ce faire, nous avons utilisé la fonction partage d'écran du logiciel SKYPE sur un poste informatique adapté à la lecture des lames virtuelles (Fig. 1). Le choix du logiciel SKYPE était arbitraire, car il est imposé par les politiques de sécurité de notre institution. Ce choix constituait néanmoins un avantage en raison de sa démocratisation préalable, permettant d'atteindre un public plus large. Une des principales solutions alternatives est le logiciel ZOOM, dont la cible est plus professionnelle. Les fonctions de base des deux logiciels sont superposables contra à leur prix : SKYPE est gratuit et offre 10 h/jour alors qu'il faudra s'acquitter d'un abonnement mensuel pour utiliser ZOOM au-delà de 40 minutes. La sécurisation et l'anonymat de ces logiciels font polémique et tous les grands acteurs sont concernés : ainsi, ZOOM, MEET, TEAMS, SKYPE et WEBEX ont tous été mis en cause par plusieurs médias [1-3]. Il est toutefois possible d'utiliser certains de ces logiciels de façon complètement anonyme, avec chiffrement, sans inscription, sans mail ou installation d'un programme tiers. Ainsi, 5 secondes suffisent pour générer une visioconférence SKYPE de manière anonyme et sécurisée sur cette page web : www.skype.com/free-conference-call. Précisons que le ministère de l'éducation nationale recommande l'utilisation de logiciels libres pour l'enseignement à distance, comme JITSI, une alternative dite « open-source » garantissant sécurité et confidentialité. La pratique de la visioconférence, avec la prise en main des lames virtuelles et leur discussion, présente des analogies avec une séance au microscope multi-tête, mais aussi des particularités, notamment en termes d'organisation. Ainsi, des recommandations doivent être rappelées à tous les spectateurs, par mail, oralement ou en les affichant directement avant ou pendant la réunion (Fig. 2) : convier les candidats à se connecter un peu avant le début de chaque réunion pour vérifier que le son et l'image fonctionnent, pour les groupes de plus de 5 personnes, inviter à couper les microphones afin d'éviter les phénomènes d'échos et de bourdonnements sauf pour la prise de parole, demander à couper les webcams, encourager régulièrement la prise de parole, optimiser l'affichage de son écran, présenter les lames de manière optimale, conseiller aux participants de s'isoler dans un endroit calme. Les modérateurs veilleront à limiter la durée des réunions à 2 h maximum, car au-delà, les risques de déconcentration sont importants. Lors de la réunion, chacun peut à tour de rôle présenter des lames en utilisant la fonction partage d'écran : il est recommandé d'alterner plan dynamiques et statiques, qui laisse le temps d'inviter les spectateurs à réagir par microphone ou par une conversation clavier (chat). Outre les lames virtuelles, le flux d'une caméra vidéo reliée à son microscope, les images radiologiques, les photographies cliniques, les présentations, chapitres d'ouvrage, de revues et des sites internet peuvent être consultés et donc visualisés par tous pour être discutés légialement. Une présentation optimale des lames est la condition sine qua none d'une réunion réussie, et nous insisterons particulièrement sur ce point : en visioconférence, un déplacement frénétique, rapide et ininterrompu sur une lame ne pourra pas être retransmis de manière fluide à tous les spectateurs. Le présentateur devra apprendre à ralentir, en s'habituant à alterner phases de déplacement courtes et phases statiques longues, ce qui assurera une retransmission vidéo correcte pour les observateurs et surtout une plus grande interactivité. Cette stratégie incite à la réaction et, si elle est correctement utilisée, permet de lutter contre la déconcentration, un problème souvent rapporté par les utilisateurs. Figure 1. Modalité de mise en place d'une visioconférence avec partage d'écran. Modality for setting up a videoconference with screen sharing. Figure 2. Schéma explicatif de l'optimisation pour obtenir le meilleur compris entre qualité d'image (résolution) et fluidité vidéo lors de la diffusion d'images d'histologie. Explanation of how to obtain the best compromise between image quality and good digital resolution. Figure 3. Affichette à diffuser aux invités avant et pendant une visioconférence pour rappeler les règles à respecter pour une bonne visioconférence. Recommendations before starting a videoconference. clairement dans la visioconférence) doit être recueilli au préalable et une information doit être donnée. Les problèmes techniques (qualité sonore et visuelle, fluidité) sont moins fréquents et surtout liés aux performances informatiques et aux vitesses de connexion individuelles. Certaines optimisations techniques pourront aussi s'appliquer spécifiquement à la diffusion d'images histologiques : résolution d'écran limitée (1280 × 720, ou inférieure, Fig. 3), lames virtuelles stockées sur un disque dur rapide et pas sur un serveur distant. Les publications scientifiques spécifiques à la pratique de l'histologie ou de la pathologie par visioconférence sont relativement rares avec moins de 30 publications ces 10 dernières années. L'approche technique utilise soit des méthodes de télépathologie dédiée, soit la méthode du partage d'écran dans une application comme Skype, soit en partageant le flux vidéo d'une caméra reliée au microscope [4-13] et plus rarement à partir de lames virtuelles [14-16]. Les applications rapportées étaient le diagnostic histopathologique [17,18] ou cytologique [5,14], les examens extemporanés et la chirurgie micrographique [13], la microscopie confocale [19], le recours dans le cadre de réseaux nationaux [15] ou internationaux [20] et l'enseignement [9,11,16]. Spécifiquement, plusieurs articles utilisaient avec succès la fonction partage d'écran du logiciel Skype pour l'enseignement, le diagnostic et le recours [4,16,17]. Le télétravail, imposé ou désiré, suscite enthousiasme et méfiance. Ces pratiques nouvelles nous questionnent sur nos habitudes de déplacements, avec un impact majeur sur l'environnement, nos agendas, mais aussi sur les coûts, les délais et la fatigue. Cette option digitale vient déjà compléter les réunions présentielles nationales de plusieurs réseaux comme NETSARC, RENOCLIP et CARADERM. La grande flexibilité offerte par la visioconférence est une boîte de pandore renfermant des sollicitations « tout le temps, partout, par n'importe qui ». Si une généralisation des avis digitaux s'impose dans le futur, les dérives potentielles seront nombreuses et pour nous, notre profession devra imaginer de nouvelles règles d'encadrement et une cotation spécifique..
16,326
bb840df803230dcf8dc3509653d01aa6_1
French-Science-Pile
Open Science
Various open science
2,018
Rhapydioninidés du Campanien-Maastrichtien en région méditerranéenne : Les genres Murciella, Sigalveolina n. gen. et Cyclopseudedomia
None
French
Spoken
7,707
13,837
Carnets Geol. 18 (11) E-ISSN 1634-0744 DOI 10.4267/2042/68382 Rhapydioninidés du Campanien-Maastrichtien en région méditerranéenne : Les genres Murciella, Sigalveolina n. gen. et Cyclopseudedomia Jean-Jacques FLEURY 1 Résumé : Les trois taxons de la famille des Rhapydioninidae analysés sont issus du genre Cuvillierinella PAPETTI & TEDESCHI, 1965, et sont regroupés au sein de la sous-famille Cuvillierinellinae. Ils sont réexaminés à partir des types et de diverses populations nouvelles qui permettent d'approfondir et renouveler leur connaissance. Leurs tests A sont tous entièrement planispiralés et dotés à des degrés divers de la "structure hélicoïdale", renommée ici structure confluente. Le genre Murciella est représenté par l'unique espèce M. cuvillieri, encore proche de Cuvillierinella mais entièrement planispiralée ; les six populations étudiées, apparemment toutes de même âge, réparties de l'Espagne au Dodécanèse, témoignent d'une homogénéité d'ensemble qui les isole des autres taxons de la famille ; l'holotype de l'espèce est interprété avec une grande vraisemblance comme représentant la génération microsphérique, à la lumière de sections centrées de même morphologie appartenant à des populations nouvellement décrites. Le genre Sigalveolina n. gen., individualisé par la réalisation parfaite de la structure confluente, est représenté par quatre espèces ; il s'agit pour trois d'entre elles du groupe précédemment dénommé "Murciella gr. renzi" et d'une quatrième, nouvelle, S. reicheli, qui correspondrait au mythique matériel, parfois évoqué sous le nom de "Cosinella", anciennement découvert par SCHLUMBERGER dans les confins italo-slovènes. Le genre Cyclopseudedomia, caractérisé par son grand proloculus A et ses tests des deux générations presque entièrement évolutes est reconsidéré au moyen de la confrontation de quatre espèces dont trois déjà connues et une nouvelle, S. mavrikasi, en provenance des confins italo-slovènes et d'Italie méridionale. On note en outre la présence ponctuelle d'un organisme rapproché de Pseudonummoloculina kalantarii qui semble donner, avec d'autres espèces attribuées au même genre à d'autres époques et en d'autres lieux, une image du groupe de Miliolacea dont sont issues les diverses lignées constituant les Alveolinacea. Il s'agit ainsi de la dernière partie d'une confrontation générale des taxons méditerranéens fini-crétacés de la famille des Rhapydioninidae, qui fait suite à celles des genres Rhapydionina - Fanrhapydionina puis Cuvillierinella - Metacuvillierinella menées précédemment par l'auteur. Un tableau général des traits exo- et endosquelettiques mis en œuvre par cette famille et une récapitulation dessinée des morphologies de la plupart des taxons qui la constituent en donnent une vue synthétique. Leur répartition stratigraphique en trois zones du Campanien Maastrichtien est précisée ; on peut douter que ces données soient aisément transposables à des régions qui n'auraient pas été affectées par trois périodes d'émersion qui semblent avoir été à l'origine des disparitions et apparitions successives dont semble témoigner la zonation. Mots-clefs : • Campanien-Maastrichtien ; • Alveolinacea ; • Rhapydioninidae ; • domaine méditerranéen ; • Murciella ; • Sigalveolina n. gen. ; • Cyclopseudedomia ; • nouveau genre ; • nouvelles espèces Citation : FLEURY J.-J. (2018).- Rhapydioninidés du Campanien-Maastrichtien en région méditerranéenne : Les genres Murciella, Sigalveolina n. gen. et Cyclopseudedomia.- Carnets Geol., Madrid, vol. 18, nº 11, p. 233-280. Extended abstract: Campanian-Maastrichtian Rhapydioninidae in the Mediterranean area: Genera Murciella, Sigalveolina n. gen., and Cyclopseudedomia.- This is the third and last part of a review of the Rhapydioninidae, benthic foraminifera that inhabited almost alone the most central areas of carbonate platforms of the Mediterranean realm. A global schematic table (Fig. 18, in addition 1 118 avenue de Flandre, F-59290 Wasquehal (France) [email protected] Published online in final form (pdf) on September 4, 2018 [Éditeur scientifique : Bruno GRANIER ; "language editor" (extended abstract) : Robert W. SCOTT] 233 Carnets Geol. 18 (11) to Figs. 15 - 17) shows their regional development. The stratigraphic succession of this family seems to have been dominated by three periods of emersion (one being documented, the others only inferred) that limit the time distribution of most of these taxa. Thus it is doubtful that this distribution can be used with certainty in other areas; for example the mention of "Cuvillierinella? sp." (possibly a Metacuvillierinella?) in the Upper Maastrichtian of Iran is a hint of such a discrepancy (SCHLAGINTWEIT & RASHIDI, 2016). Rhapydionininae and Pseudedomiinae subfamilies are summarily considered here, either because the facts have been established previously, or because the knowledge of them is still fragmentary. The Rhapydionininae subfamily, summarily depicted in Figure 18, is characterized mainly by its endoskeleton, lacking the confluent structure, with a wide peripheral zone and a very early unrolling trend (either cylindrical: Rhapydionina, with small proloculus, or flabelliform: Fanrhapydionina, with large proloculus). The milioline origin of this subfamily is indicated by species of the R. dercourti group, which are faintly streptospiral in the initial stages of both generations (FLEURY, 2014). The Pseudedomiinae subfamily is not the subject of these studies, being essentially represented by taxa in more Eastern regions. Besides, nothing definite can be deduced from the minimal knowledge of the group (see review in MAVRIKAS et al., 1994), until the type of the type species is still poorly known. Cuvillierinellinae subfamily (FLEURY, 2016) is made up of six genera, including Cuvillierinella from which the others are clearly derived. But the origin of this genus remains uncertain. However, the presence of Pseudonummoloculina aff. kalantarii in our samples enables the consideration of what would be such an ancestor and how it could be named. We can try to imagine it from a simple principle and a few observations. The principle is the independence of evolutionary characters, commonly observed elsewhere in the family but quite obvious in the type population of Cuvillierinella salentina (see DE CASTRO, 1988; FLEURY, 2016), in which coexist the well-known type and specimens of overall same appearance, either streptospiral and devoid of partitions, or planispiral with a highly specialized endoskeleton. The observations are those that can be performed on species described by various authors under the name of Pseudonummoloculina. These organisms change from streptospiral to planispiral stage during their development. Some have a unique "notched" opening, others a double row of openings (and complex combinations of these two rather indistinct types) and some have no endoskeleton while others display rudimentary partitions. Varying combinations of these characters defy the conventional criteria of classification, each combination (changing during the ontogenetic development) being likely to justify a generic or specific status according to the arbitrary ordinary standards. These organisms are however in all cases isolated in time and most often deprived of clearly identifiable descendants (with the exception of P. pecheuxi FOURCADE & FLEURY, 2001, which is the origin of the species of Praechubbina genus). They probably do not constitute a unique group, but represent a step in an iterative evolution, leading members of a group of Miliolacea to the Alveolinacea, as REICHEL (1936, 1937) and PÊCHEUX (2002) conceived it and as FLEURY and FOURCADE (1990) illustrated. We are thus led to apply the generic term Pseudonummoloculina to indicate a transitional state, that is to say an evolving stage. We are here confronted with the fundamental difficulty of adapting a nomenclature of creationistic essence to the perpetual reorganization of living organisms. It is therefore futile to characterize by terminology the temporary results; the term Pseudonummoloculina seems better to express a vague and essentially unstable notion related to the realities of evolution, ... at least as long as evolving networks of various known stages are not identified. The five genera derived from Cuvillierinella have a wide range of morphology (FLEURY, 2016, Fig. 13). Each genus is characterized by a dominant evolutionary trend, variously associated with secondary independent features. Metacuvillierinella and Pseudochubbina genera are treated superficially in this text and are probably derived from Cuvillierinella or its supposed close ancestor. Metacuvillierinella is the closest, comparable in its young stage to typical streptospiral tests of C. salentina, comprising an early well developed wide meshed endoskeleton. It is distinguished by its adult advolute coiling without final uncoiling and its very low dimorphism of generations, restricted to the initial coiling. Pseudochubbina is linked to Cuvillierinella perisalentina, also hesitating on its coiling mode ("Slow Axial Rotation" in FLEURY, 2016), and sharing the "Scattered Secondary Chamberlets" (FLEURY, 2016), which are the only likely criteria for the origin of this genus. Murciella, Sigalveolina n. gen. and Cyclopseudedomia, are reviewed here from the types and various new populations, which allows deepening and renewing of the knowledge of them. They are all fully planispirally coiled in the A generation and to varying degrees display an endoskeleton that previously was called "helicoidal structure", here renamed 'confluent structure'. Murciella is very close to Cuvillierinella as evidenced by the coexistence of specimens having characteristics of both types in the population of the Cuvillierinella type species. The existence of populations including both Cuvillierinella and Murciella, without morphological intermediaries, as well as the existence of populations containing only one or the other of these taxa emphasizes their independence. The six various populations assigned to M. cuvillieri, known from Spain to the Eastern Mediterranean sea, are likely to belong to the same zone (CsB6a) and were never associated with species of the overlying zone. These populations constitute a homogeneous set close to that of C. salentina appearance, with a little wider range of the A proloculus and a finer endoskeletal mesh. Tests of the B generation in several populations suggest that the holotype of the type species represents this generation, which appears to be less influenced by uncoiling than C. salentina. Sigalveolina n. gen. has been long confused with Murciella, too incompletely known to be distinguished before now. This new genus characterizes younger levels (zone CsB6b). This study shows that 234 Carnets Geol. 18 (11) the high degree of confluent structure that gives its individuality coincides with a morphological diversity illustrated by four distinct species, including a new one, Sigalveolina reicheli. This new species probably corresponds to the mythical material, known as "Cosinella", formerly discovered by SCHLUMBERGER from the Italo-Slovenian border. A tests of the four species are larger in size than those of Murciella, at diameters of proloculus of the same order of magnitude; they are only rarely uncoiled, with the apparent exception of Sigalveolina reicheli n. sp., which adopts this trend only at a very late development stage. B tests also tend to be involute at a later stage, in contrast to the early uncoiling of previous and next genera. Cyclopseudedomia is characterized by a very large A proloculus and an extremely reduced involute stage resulting in a longer uncoiled uniserial stage. This outstanding evolutionary trend is modulated in four species, including three already described and a new one, C. mavrikasi from the Italo-Slovenian border and Southern Italy. This trend is well marked in tests of both generations. In A tests, the involute part never exceeds 1.5 whorls around a large proloculus, and the uncoiled part is either cylindrical or flabelliform. B tests are mainly made of large evolute flabelliform flange, reaching a discoidal stage in the type species only; these flanges are always flat and increase in thickness very slightly towards the periphery. Finally, it must be noted that data in Figure 18, reduced to the A tests, are imprecise inasmuch as the genera generally include the features of several species, which are distinguished by nuances affecting their characters, but also because the time span of the genera and the included species likely does not correspond to the entire period of time covered by the zone in which they are recognized. This means that Figure 18 represents a state of schematic knowledge that can be improved only by specific careful field studies. Key-words: • Campanian-Maastrichtian; • Alveolinacea; • Rhapydioninidae; • méditerranean domain; • Murciella; • Sigalveolina n. gen.; • Cyclopseudedomia; • new genus; • new species 1 - Introduction Ce travail est le dernier d'une trilogie consacrée aux Rhapydioninidae campano-maastrichtiens du domaine méditerranéen, un groupe qui peuple principalement et presque à lui seul la partie la plus interne des plates-formes carbonatées périadriatiques. Si ces plates-formes apparaissent comme le foyer des genres Cuvillierinella, Cyclopseudedomia, Metacuvillierinella, Murciella, Rhapydionina et Sigalveolina n. gen. qui y prospèrent, quelques-uns de ces taxons ont été accueillis en Espagne et aux abords du "Middle East", à la faveur de l'installation plus ou moins fugace des "faciès d'émersion" qu'ils affectionnent. L'ensemble de ces études ne pourra cependant pas être considéré comme exhaustif, dans la mesure où des genres tels que Pseudedomia HENSON, 1948, ou Pseudochubbina DE CASTRO, 1990, qui avoisinent ou parfois accompagnent les peuplements étudiés sont encore trop imprécisément connus pour faire l'objet de synthèses détaillées. L'ensemble des données réunies ici ne devrait pas conduire à de trop rapides conclusions. On sait que ces plates-formes correspondent actuellement à des paysages souvent désolés qui n'attirent pas la curiosité du géologue et que les épais- ses séries de carbonates apparemment monotones qui les constituent, souvent dépourvues de repères évidents, peuvent décourager le chercheur. Cependant, en considération des riches résultats d'une étude très précise d'un de ces domaines, tel que celui du massif du Gavrovo en Grèce (MAVRIKAS, 1993), on peut supposer que bien des documents nous manquent encore. C'est donc en attendant avec confiance que de futures études ouvrent de nouveaux horizons que le présent dossier peut être présenté, certainement provisoire mais exhaustif des connaissances actuelles sur le sujet tel qu'il est limité. Quoi qu'il en soit, ce travail comme les deux qu'ils l'ont précédé dans le même esprit (FLEURY, 2014, 2016), apporte une dimension nouvelle à la connaissance de ce groupe. Fruit d'une recherche sur le terrain étalée sur plusieurs décennies et d'un travail de laboratoire plus long encore, il établit des comparaisons entre des populations isolées dans l'espace d'espèces le plus souvent connues jusqu'alors de leurs seules localités types et de quelques rares gisements superficiellement exploités. On en vient ainsi à préciser la signification de chacune d'elles et à poser les fondements d'une classification qui tend à s'approcher de l'idéal naturel souhaitable. 235 Carnets Geol. 18 (11) Figure 1 : Localités citées dans ce texte. En Grèce, les diverses localités sont représentées par un groupe de 3 lettres, toujours identique pour les mêmes localités depuis le travail de FLEURY (1980). Sont également décrites dans le texte les localités des confins italo-slovènes YUA4 et YUC1 (d'après BIGNOT, 1972) et d'Italie méridionale I250 (A) et I285 (B). Les localités d'Espagne, non situées ici, sont rapportées dans le texte, d'après FOURCADE (1966) et HAMAOUI & FOURCADE (1973). 2 - Localités étudiées (Fig. 1) Les localités signalées par la suite sont en petit nombre, choisies en fonction de l'intérêt des populations qui s'y trouvent et, en conséquence, du grand nombre de préparations dont celles-ci ont fait l'objet. Celles de Grèce, comme les échantillons qui en proviennent, sont représentées par un groupe de 3 lettres (Fig. 1), utilisé dans les précédentes publications de l'auteur, depuis 1980. Ce sont, d'est en ouest et du sud vers le nord, en Grèce : FPM Île d'Astypalia (Dodécanèse), GGB Région de Pylos-Méthoni au sud-ouest du Péloponnèse, GDD Massif du Mainalon à l'est du Péloponnèse, GKL Massif du Klokova au sudouest de la Grèce continentale, XGP Massif du Gavrovo, au cœur de la Grèce continentale. Les localités d'Italie méridionale et des confins ItaloSlovènes sont également situés sur la Figure 1 ; celles d'Espagne sont rappelées dans le texte à partir des données d'Éric FOURCADE. 3 - Matériel et méthodes Le matériel examiné provient dans tous les cas de calcaires massifs dont les organismes ne peuvent être dégagés sans grands dommages. L'étude de sections en lames minces est donc le seul moyen d'accéder à leur connaissance. Ces lames ont été dans un premier temps effectuées au hasard, ce qui est parfois suffisant pour en connaître les principaux caractères, notamment ceux de l'endosquelette. Mais les particularités de l'enroulement ne sont pas ordinairement déductibles des sections quelconques, spécialement pour les tests de génération B, parfois très rares. Des recherches plus précises sont souvent nécessaires ; elles commencent sur le terrain, où les échantillons doivent être soigneusement sélectionnés et où des éclats de roche révélateurs doivent être scrutés et récoltés. On doit également explorer longuement des plaquettes sciées selon des plans variés, progressivement usées jusqu'à l'apparition éventuelle de sections éclairantes. C'est un long et fastidieux travail, qui seul permet de disposer des connaissances indispensables à la compréhension des relations entre les divers taxons examinés. Le matériel réuni au cours des années d'activité académique de l'auteur est compris dans une collection d'environ 8000 lames minces conservée par le Département des Sciences de la Terre de l'Université des Sciences et Techniques de Lille (USTL), à Villeneuve d'Ascq. L'identité de chaque lame est assurée par un numéro d'échantillon (toujours indiqué dans les publications où elle a fait l'objet d'une figuration) et un numéro de fabrication inclus dans la préparation. En outre, des numéros de collection sont attribués aux échantillons et portés sur les lames ; ils sont indiqués dans les notes de l'auteur depuis longtemps et permettent une recherche systématique aisée dans l'ensemble de la collection, à partir des diverses publications. 236 Carnets Geol. 18 (11) On notera que c'est par erreur que, à la suite de confusions et de malentendus, cette collection a été annoncée (FLEURY, 2014, p. 175) comme devant être confiée au Museum National d'Histoire Naturelle de Paris ; elle restera la propriété de l'USTL. On confirme ici cependant que les collections de J. CUVILLIER, M. NEUMANN et É. FOURCADE seront déposées auprès du MNHN. chez deux espèces du genre Cyclopseudedomia (Figs. 11.8, .12, 13.8) d'une fine costulation externe, inhabituelle chez les Alveolinacea. Bien que ce trait semble propre à ce genre, sa signification demeure douteuse dans la mesure où il reste très discret et donc sensible aux altérations diagénétiques qui peuvent le rendre inobservable chez d'autres taxons. 4 - Architecture et endosquelette : Divers types et nomenclature (Figs. 2- 3) Les tests A comprennent un proloculus (première loge) de section ordinairement circulaire communicant avec la loge suivante par le flexostyle (développé sur la surface du proloculus à la manière du germe de marron, selon l'heureuse expression de REICHEL, 1936). Chez certains de ces tests, les loges suivantes s'organisent selon une spire dont le caractère streptospiralé peutêtre limité aux premiers tours (Cuvillierinella par exemple) ou persister dans les stades adultes (Pseudochubbina, par exemple) ; chez d'autres, entièrement planispiralés (les espèces qui sont traitées ici), les loges suivant le proloculus constituent un ensemble nautiloïde subsphérique à aplati qui peut constituer la totalité du test. Les tests B présentent une très petite loge, rarement observée, suivie par un ensemble de petites loges streptospiralées ou d'allure quinquéloculine. Dans les deux générations, les stades adultes comprennent éventuellement une partie rectiligne unisériée (abréviée PRU par la suite), évolute, soit cylindrique (Fig. 2.1), soit flabelliforme (Fig. 2.6, .9 : les 5 dernières loges), dans laquelle chaque loge n'est en contact qu'avec celle qui la précède et celle qui la suit ; un cas extrême est fourni par Cyclopseudedomia smouti (Fig. 11.10) dont les loges terminales des tests B sont annulaires. Un stade intermédiaire, dit pseudoévolute, correspond au passage de la partie involute à la partie évolute, lorsque le pas de la spire s'accroît rapidement, alors que les loges restent au contact de la partie involute (Fig. 2.9 : 5 ou 6 loges précédant les 5 dernières) ; ce stade est plus ou moins bref mais peut persister longuement chez certains tests adultes (Cuvillierinella, tests B, par exemple : voir FLEURY, 2016, Fig. 14). Pour mémoire, on évoquera encore l'enroulement advolute, cas particulier de l'enroulement involute dans lequel les tours successifs ne se recouvrent que partiellement (Metacuvillierinella in FLEURY, 2016, Figs. 10-11). La Figure 2 présente les principaux traits de l'architecture des Rhapydioninidae, à partir de deux exemples développés dans ce qui suit. Les tests de génération mégalosphérique (A) sont seuls traités sur cette figure mais on notera que mis à part leur parties népioniques (de type miliolin : quinquéloculin ou streptospiralé), les tests microsphériques (B) présentent le même endosquelette que ceux qui sont illustrés. On peut en effet distinguer, suivant REICHEL (1936), un exosquelette "qui forme carapace" d'un endosquelette "constitué des dépôts internes", bien que cette distinction toute théorique ne soit essentiellement utile que pour l'exposé. EXOSQUELETTE (ARCHITECTURE) Les tests sont limités par une paroi calcaire imperforée, dénommée muraille, dont les inflexions périodiques, nommées septes, limitent les loges successives. Chaque septe est à l'origine une face orale perforée d'ouvertures (Fig. 1.b-c), laquelle ne devient à proprement parler septe que lorsqu'elle est recouverte par la loge suivante. C'est ce qui pourrait justifier que certains auteurs aient suggéré de nommer différemment ces perforations passant au cours du temps d'une fonction de communication avec l'extérieur à une communication entre loges successives. Il ne s'ensuit cependant aucun changement morphologique et cette proposition n'est pas retenue, à l'exemple de la bouche humaine qui ne change pas de nom lors du passage de la fonction d'élocution à celle d'absorption de nourriture, en particulier. On nomme ouvertures primaires celles qui, situées à la périphérie du septe, correspondent et donnent naissance aux logettes primaires de la loge suivante et ouvertures secondaires celles qui, situées dans la partie centrale du septe, correspondent et donnent naissance aux logettes secondaires. On retiendra que si les ouvertures secondaires partagent le même axe et sont en parfaite continuité avec les logettes qui les suivent, les ouvertures primaires présentent un axe oblique sur celui des logettes correspondantes et sont décalées par rapport à cet axe comme en témoignent les bonnes sections convenablement orientées, telles que celles des Figures 2.4, .11, 7.5, 9.11-13, 11.13, 14.9-10. On notera comme caractère de signification douteuse l'existence ENDOSQUELETTE Structure coaxiale (Fig. 2.12-14). On nomme ainsi la disposition ordinaire, commune à tous les taxons de la famille, des logettes qui divisent les loges. Ces volumes tubulaires ménagés au sein des "dépôts internes" divisent le protoplasme de chaque loge en colonnes isolées, parallèles entre elles (coaxiales) à l'origine, qui débouchent dans un espace indivis ménagé à proximité du septe, l'espace préseptal. Cet ensemble constitue l'unique élément fondamental caractérisant les Alveo- 237 Carnets Geol. 18 (11) Figure 2 : 1-14 : Architecture du test et endosquelette des genres Murciella et Cyclopseudedomia (Tests A). 1-5 : Genre Murciella à l'exemple de M. cuvillieri. 1a : Aspect extérieur d'un test théorique en partie disséqué montrant le mode d'enroulement et situant les éléments de description ; 1b et 1c : Aspect de la face aperturale d'une loge de la partie déroulée finale et d'une loge de la partie involute (noter que les ouvertures primaires comme les logettes primaires n'existent pas au contact du tour interne). 238 Carnets Geol. 18 (11) linacea en général et les Rhapydioninidae en particulier. Les logettes s'organisent en deux ensembles. Les unes, formant une seule couche adjacente à la paroi, d'axes toujours parallèles à l'axe de la loge sont dites logettes primaires (les premières apparues et parfois demeurant les seules divisions des loges) ; elles sont limitées par les cloisonnettes qui joignent les septes successifs (Figs. 5.14, 11.14, 12.6), dont la section est triangulaire à la marge de l'espace préseptal (pour les plus lisibles exemples, voir Figs. 9.1, .6, 10.14 pour Sigalveolina n. gen. ; Figs. 11.12, .15, 12.16, 13.14, 14.26 pour Cyclopseudedomia et FLEURY, 2014, Fig. 1H pour Rhapydionina); ces logettes caractérisent une zone marginale. Les autres, dites logettes secondaires (apparaissant en second, parfois absentes, et accessoires, à l'origine, mais vouées dans bien des cas à la structure confluente décrite plus loin) sont dispersées dans une masse plus ou moins compacte dénommée endosquelette central. L'espace préseptal même est occupé par des piliers préseptaux apparaissant lorsque l'endosquelette central est bien développé (les piliers sont donc une structure annexe de celui-ci) et partiellement divisé dans sa partie marginale par les cloisonnettes qui s'y prolongent. On rappellera que l'expression "piliers résiduels", parfois utilisée, est issue d'une théorie depuis longtemps abandonnée selon laquelle les Rhapydioninidés seraient issus de Soritidés dont les piliers interseptaux auraient en partie fusionné pour constituer l'endosquelette central. Les termes de "planchers" et "couche basale", parfois utilisés pour décrire l'aspect de l'endosquelette central nécessitent d'être reconsidérés. On évoquera également les aspects variés de la disposition des logettes secondaires au sein de l'endosquelette. Les planchers ("lames parallèles à la surface ; ils délimitent les couches de logettes" selon REICHEL, 1936) correspondent à des structures que bien des auteurs, parmi lesquels celui du présent travail, ont cru discerner chez de nombreux Alveolinidae à tests fusiformes et chez certains Rhapydioninidae (particulièrement dans les sections de type équatorial, voir par exemple Figs. 2.4, .15, 5.11-12, 7.5, 9.11-13, ou encore in FLEURY, 2016, Fig. 6.2). Pourtant, dans le cas général, et en sections axiales, bien des irrégularités de détail se présentent et de nombreux exemples remarquables semblent de nature à discréditer cette conception, comme en témoignent les Fig. 2.16-24. Ainsi, des genres aussi divers que Sellialveolina COLALONGO, 1963 (Fig. 2.16), Chubbina ROBINSON, 1968 (Fig. 2.17-18), Murciella (Fig. 6.6, 8) et Cyclopseudedomia (Figs. 11.15, 13.15, 14.20) montrent-ils, soit dans les dernières loges de la partie involute, soit dans celles des parties évolutes, une organisation anarchique des logettes qui ne peut être décrite en termes de planchers. Il en est de même chez le genre Rhapydionina STACHE, 1913, dont la partie terminale unisériée présente des configurations très diverses, permettant d'en distinguer plusieurs types : • • • les logettes secondaires sont peu nombreuses, irrégulièrement dispersées et totalement indépendantes des primaires, en fonction de la coalescence des cloisonnettes à des distances variables de la muraille (Fig. 2.19-21, .24); les logettes secondaires sont disposées en quinconce par rapport aux primaires, leur limite formant une ligne régulièrement indentée (Fig. 2.22) ; les logettes secondaires, noyées dans la masse centrale, se trouvent à des distances très variables de la muraille, apparaissant parfois comme de simples subdivisions distales des primaires (Fig. 2.23). Ces observations donnent entièrement raison à HAMAOUI & FOURCADE (1973), qui niaient l'existence de planchers chez les Rhapydioninidae. Elles semblent permettre de soutenir l'hypothèse d'une élaboration de l'endosquelette central des Rhapydioninidae à partir de la coalescence des cloisonnettes, à l'endroit où, géométriquement, elles se rencontrent. La couche basale correspond à une notion introduite également par REICHEL (1936, "dépôt plus ou moins épais qui s'étend sur la surface du tour précédent et constitue le revêtement interne des loges"). Il existe effectivement toujours chez les Alveolinacea un dépôt qui répond à cette définition mais il n'est généralement pas évoqué, tant il est banal et peu épais; il peut être qualifié de "couche basale au sens large". On lui a attribué une signification particulière dans les cas où ce dépôt est épais et donc très remarquable, dans deux types de configurations bien différents. W Légende : Cl : cloisonnettes ; Ec : Endosquelette central ; Ep : Espace préseptal ; F : Flexostyle ; L1 : Logettes primaires ; L2 : Logettes secondaires ; M : Muraille ; O1 : Ouvertures primaires ; O2 : Ouvertures secondaires ; P : Proloculus ; Pp : Piliers préseptaux ; S : Septe ; noter en 14 l'Axe O1 oblique sur l'axe des logettes primaires (voir en particulier section 11 ci-dessus et Fig. 11.18). 239 Carnets Geol. 18 (11) • Le plus souvent (parfois sous le nom de "flosculinisation") ce terme caractérise l'épaississement apparaissant chez certaines Alveolina et autres genres cénozoïques : il est parfois également réparti dans toute la loge, structuré de stries qui témoigneraient de son accroissement progressif (voir HOTTINGER, 1960) et parfois parcouru de canaux irréguliers ("logettes supplémentaires") ; ces canaux ne débouchent pas dans l'espace préseptal (limité à une partie du septe), où n'accèdent que les logettes primaires. • Par extension, le même terme a été utilisé pour décrire un épaississement qui se développe exclusivement vers les pôles des tests B du genre Subalveolina REICHEL, 1936, parcouru de canaux plus ou moins bien organisés débouchant dans l'espace préseptal, lequel a le même développement que le septe. Ces canaux sont plutôt irréguliers et dispersés chez S. dordonica REICHEL, 1936 (Pl. IV.2 de cet auteur; voir aussi VICEDO et al., 2009, Fig. 5.3), mais "plus densément répartis (…) comme chez Praealveolina" chez S. perebaskini REICHEL, 1953. Les épaississements observés chez Alveolina et chez Subalveolina présentent donc entre eux une analogie de position mais ne sont pas homologues. La notion de couche basale au sens restreint qui s'applique à Alveolina ne semble donc pas plus adaptée à caractériser l'épaississement de Subalveolina que l'endosquelette central des Rhapydioninidae. Par ailleurs, REICHEL (1953) ne voit qu'une différence de détail entre l'irrégularité des logettes secondaires de S. dordonica à la régularité de celles de S. perebaskini ou de Praealveolina, qui ne lui semblent donc pas de nature différente. Ces deux aspects ont leurs équivalents chez les Rhapydioninidae. D'une part, le dispositif SSC (Scattered secondary chamberlets in FLEURY, 2016), dans lequel la distance entre logettes est plus grande que leur diamètre, connu chez Pseudochubbina, Cuvillierinella perisalentina FLEURY, 2016 et que l'on retrouve chez Rhapydionina (Fig. 2.19-23) et Cyclopseudedomia (Figs. 2.8, 11.8, .11, .15, 12.11, .16, 13.15) correspond à celui de S. dordonica. D'autre part, le dispositif plus ordinaire, dans lequel les logettes sont séparées par une paroi mince, comme chez Sellialveolina (Fig. 2.16), Chubbina (Fig. 2.17-18), Murciella (Figs. 5.4, 6.8, 7.7) et Sigalveolina (Figs. 8.3, .19, 10.13-14) correspond à celui de S. perebaskini. Il n'y a donc pas lieu de distinguer fondamentalement ces deux dispositifs, dont on ne vient d'évoquer que les cas les plus évidents, entre lesquels on peut trouver des exemples moins tranchés. Mais il reste que le dispositif SSC peut servir à caractériser certains taxons, dont les plus notables sont Pseudochubbina et Cyclopseudedomia. En conclusion, ni la théorie des planchers, ni celle d'une équivalence de l'endosquelette central des Rhapydioninidae avec la couche basale prise dans la signification qu'elle présente chez Alveolina ne semblent devoir s'appliquer à cette famille. L'endosquelette central des Rhapydioninidae serait issu du développement des cloisonnettes et serait l'homologue de ce qui a été nommé par extension (et à défaut d'autres exemples connus à l'époque) "couche basale" chez Subalveolina. Structure confluente (Fig. 3). Une importante variation de la structure endosquelettique coaxiale décrite ci-dessus a été mise en évidence il y a presque quatre décennies (FLEURY, 1979a) sous le nom de "structure hélicoïdale". Il s'agissait d'un trait jamais observé auparavant chez les Alveolinacea, consistant en une apparente désorganisation des logettes secondaires, perdant le parallélisme habituel de leur axe avec celui des logettes primaires. C'est une espèce en particulier, ("Murciella" renzi, ici attribuée à Sigalveolina n. gen.) qui devait fournir la clé de compréhension de ce caractère : les logettes de fin diamètre comprises dans un test très aplati créaient des conditions favorables à l'observation en section plane de leur organisation en deux jeux sensiblement orthogonaux orientés à 45° de l'axe des logettes primaires (Fig. 3.5). Le plus remarquable de ce dispositif était l'interpénétration de ces logettes à leurs croisements (Fig. 3.3-14), créant ainsi de nouvelles communications protoplasmiques au sein de la loge, concurrentes de celles qui sont ordinairement limitées à l'espace préseptal. Comme certaines sections semblaient montrer que ces logettes s'organisaient en couches adjacentes bien délimitées (Fig. 3.6), il était possible d'envisager qu'au sein d'une loge de type cylindrique, les logettes secondaires décrivent deux hélices contrariées de même axe que la loge, ce qui semblait propre à supporter le nom choisi alors. Mais il est vrai que les loges cylindriques sont rares chez Sigalveolina et il apparaît probable que l'organisation ne soit pas aussi régulière que supposée, si bien que fonder un nom sur une image presque virtuelle pouvait sembler peu avisé. C'est ainsi que certains auteurs, bien que n'ayant rien apporté à sa connaissance, ont cru devoir abandonner le terme de "structure hélicoïdale", jugé probablement trop théorique. On conviendra qu'il vaut mieux se fonder sur le fait fondamental, qui réside dans la communication établie entre les logettes secondaires d'une même loge, dont résulte une révolution dans la gestion du protoplasme de la loge. On songera dans ces conditions à l'avantage que constituent ces confluences pour les symbiotes, dont on sait qu'ils présentent des rendements optimaux dans d'étroits domaines de luminosité (LEE & ANDERSON, 1991, par exemple) et qui sont donc dans ce dispositif susceptibles d'adapter constamment 240 Carnets Geol. 18 (11) Figure 3 : La structure confluente. 2 : Figure schématique représentative de la même structure dans une loge aplatie, dans laquelle les logettes seconddaires sont organisées selon des plans ; elles peuvent sembler obliques sur les parois de la loge, en fonction de l'orientation du plan de section ; l'interpénétration des logettes secondaires des couches adjacentes n'est pas représentée (FLEURY & FOURCADE, 1987). 3-4 : Modèle matériel d'une partie de loge cylindrique (3) et section (4) de ce modèle par un plan dont la trace est figurée sur le côté de 3 ; l'interpénétration des logettes secondaires des différentes couches donne naissance à des nouvelles communications intraloculaires, dénommées "stolons" (St). 5-14 : Exemples concrets de la structure confluente. 5 : Dessin de section de 2 loges de Sigalveolina renzi (in FLEURY, 1979a). 6 : Partie de section de S. aff. renzi, montrant clairement la disposition des logettes secondaires en couches parallèles à la paroi de la loge (GKL414). 7 : section d'un grand test de Cyclopseudedomia ? n. sp. (voir Fig. 14.2937). 8 : Sellialveolina drorimensis (REISS et al., 1964), d'après DE CASTRO, 1988. 9 : Pseudedomia aff. multistriata (d'après MAVRIKAS et al., 1994). 10 : Sigalveolina ovoidea (voir Fig. 9). 11-12 : Neomurciella butterlini (d'après FLEURY & FOURCADE, 1987). 13-14 : Cyclopseudedomia klokovaensis (13) et C. smouti (14), pour comparaison de ces deux structures confluentes frustes (voir aussi Figs. 11.14, 12.14). Grandissements variés, en fonction des détails à mettre en valeur. leur position en fonction de leurs préférences. Il s'agirait d'un facteur décisif du développement du groupe, qui concerne à des degrés divers les trois genres examinés ci-dessous. 5 - Critères d'identification des genres et des espèces L'expérience montre que, au sein d'un groupe particulier tel que celui qui est étudié ici, il est vain de chercher à classifier les caractères morphologiques en catégories spécifiques ou génériques définies a priori, ou du moins à partir d'une expérience très limitée. Nous montrerons que les éléments morphologiques n'ont pas de signifi- cation intrinsèque : tel caractère susceptible de distinguer des espèces pourra se retrouver dans divers genres et inversement tel caractère permettant de distinguer des genres se retrouvera dans diverses espèces. Une telle complexité est liée au fait que les divers caractères évoluent indépendamment les uns des autres. Il apparaît plutôt que ce sont les associations de caractères qui permettent d'entrevoir les tendances évolutives dans leur complexité et de les distinguer dans une perspective d'ensemble. Mais ce mode opératoire nécessite une bonne compréhension globale du groupe considéré et n'est pas à la portée d'une étude superficielle rassemblant des éléments divers hâtivement réunis. 241 Carnets Geol. 18 (11) Les critères qui peuvent servir à l'identification des espèces et des genres sont les suivants : dération mais doit être envisagé en dehors de tout esprit de système. POUR LES TESTS A L'importance relative du stade involute chez les tests A est en principe d'usage limité. Il distingue cependant (avec la taille du proloculus) chez le genre Rhapydionina certaines espèces de la zone CsB6b de celles de la zone suivante (FLEURY, 2014, Fig. 20). Sa réduction extrême à moins de deux tours enveloppant le proloculus est une caractéristique, parmi d'autres, des genres Cyclopseudedomia et Fanrhapydionina, liée dans les deux cas à des proloculus de très grande taille. Au contraire, sa grande importance par rapport à un stade déroulé absent, très court ou très tardif constitue l'une des caractéristiques du nouveau genre Sigalveolina. Le diamètre du proloculus permet en principe de caractériser statistiquement chaque population et nécessite d'être toujours exprimé. Dans ce travail, comme dans les précédents de l'auteur, c'est toujours le diamètre interne qui est mesuré (sans qu'il soit tenu compte de l'épaisseur de la paroi). On ne peut cependant pas accorder à ce critère une importance primordiale chez des organismes répandus sur de vastes territoires et pendant une période de temps relativement importante, sauf lorsqu'il semble indiquer une tendance générale. Par exemple on notera le cas de Murciella gr. cuvillieri (Figs. 15-16) représentée par des populations de morphologie relativement homogènes dont les variations de taille du proloculus sont sans rapport avec les relations de proximité ou d'éloignement des diverses localités dont ils proviennent. On citera encore les variations autour du type signalées dans la description de Sigalveolina renzi (Fig. 8), relativement homogènes par l'ensemble de leurs caractères, dont les tailles de proloculus sont très diverses. A l'inverse, on rappellera que dans le cas de Rhapydionina gr. liburnica, il a paru utile (FLEURY, 2014) de distinguer les populations de Grèce de celle du type d'Istrie, tant la différence de taille du proloculus entre les deux régions apparaissait systématique. Un cas non élucidé se présente chez le genre Sigalveolina : l'examen des tests A de S. ovoidea et S. reicheli n. sp. semble montrer que les grands proloculus correspondent à de (relatifs) petits tests alors que, inversement, les plus petits proloculus correspondent aux plus grands tests (voir Fig. 16) ; le matériel réuni est trop peu abondant pour l'établissement de données statistiques, mais la question de l'existence de deux générations A se trouve posée. On rappellera à cette occasion que DE CASTRO (1990, p. 103) a révélé chez Pseudochubbina globularis (SMOUT, 1963) une relation de la taille du proloculus avec les variations de divers caractères, n'affectant cependant pas la taille des tests. Le mode d'enroulement initial des tests A constitue un critère classique d'utilisation commode qui, comme tous les caractères évolutifs doit être considéré dans la perspective d'ensemble. Si certains taxons semblent liés à l'un ou l'autre des types streptospiralé ou planispiralé, il en est d'autres qui les empruntent concurremment ou successivement. Ainsi, la population du type de Cuvillierinella, espèce en principe tenue pour typiquement streptospiralée montre des spécimens planispiralés ; en outre les espèces C. perisalentina et C. fluctuans FLEURY, 2016 présentent des individus qui se partagent entre l'un ou l'autre des deux types d'enroulement initial. Il s'agit donc d'un critère qui doit être pris en consi- Le mode d'enroulement et de déroulement des tests adultes doit évidemment être toujours caractérisé. Dans les genres concernés par cette étude, il est ordinairement planispiralé dès le stade juvénile des tests A. On observe cependant, trop exceptionnel pour être pris en compte autrement que comme la récurrence d'un caractère ancestral, deux cas (S. renzi, Fig. 8.11, et une citation chez S. methonensis) où l'axe d'enroulement effectue une rotation régulière ("Slow axial rotation", in FLEURY, 2016) et c'est l'une des caractéristiques des genres Pseudochubbina et Metacuvillierinella. Le déroulement final existe chez presque toutes les espèces examinées ici ; il est parfois minoritaire et ne pas constituer la règle ; il peut comprendre des loges subsphériques ou aplaties, constituant une PRU cylindrique ou flabelliforme, évolute ou pseudoévolute, ces divers types étant susceptibles de coexister dans la même génération d'une même espèce d'une même localité (S. reicheli n. sp., C. mavrikasi n. sp., Figs. 15-16). La forme générale des tests est rarement significative. Ils sont ordinairement de type nautiloïde, de presque sphérique à aplati, ceci même au sein d'une unique population (M. cuvillieri, Fig. 5.1-5 par exemple). Ce critère pourrait cependant être le seul, si l'on y tient, qui puisse être qualifié de constituer un "caractère spécifique", mais son usage resterait très limité si l'on prend en compte l'aspect très homogène de la plupart des tests A des espèces de petite taille. L'indice d'aplatissement des tests (Fig. 15) correspond au rapport du diamètre équatorial (les tests déroulés étant exclus) à "l'épaisseur du test", plus grande dimension mesurée parallèlement à l'axe d'enroulement. Cette donnée est peu précise puisque "l'épaisseur" dépend de l'exacte orientation du plan de section et que les sections axiales passent rarement par le plus grand diamètre équatorial ; elle donne cependant une idée de la morphologie du test et s'avère utile à caractériser les cas les plus extrêmes, c'est-à-dire les tests les plus plats (S. renzi) et les plus obèses (S. ovoi- 242 Carnets Geol. 18 (11) dea). Elle n'a pas de signification pour le genre Cyclopseudedomia où l'indice serait toujours très élevé, variant dans de très larges proportions en fonction de l'orientation de la section ; on notera cependant que les sections équatoriales pourraient être utilisées puisque "l'épaisseur" du test correspond grosso-modo au diamètre du proloculus. L'endosquelette, commun aux tests des deux générations est indépendant des caractères précédents. Le moment de l'apparition de cet endosquelette chez les tests A n'est pas significatif, puisque s'il est très précoce chez les formes planispiralées étudiées ici, il peut l'être tout autant chez certaines formes streptospiralées telles que Cuvillierinella perisalentina ou C. fluctuans ou même certaines formes avancées de C. salentina (voir FLEURY, 2016, Figs. 5.25, 6.3 et 7). La particularité des genres ici présentés réside en grande partie dans l'expression de la structure confluente dont le degré de perfection est pris en compte, parmi d'autres critères, pour distinguer les genres et les espèces. Cette structure est rare mais n'est pas inconnue chez Cuvillierinella (voir FLEURY, 2016, Fig. 6.11) qui serait à l'origine de tous les taxons concernés par cette étude, et l'on peut juger par les exemples de la Figure 3 qu'elle est répandue parmi des taxons très divers par leur localisation comme par leur âge. La forme comme le diamètre absolu et relatif des logettes en section perpendiculaire à leur axe peut être utile à remarquer, mais on notera que leur aspect dépend de l'orientation du plan de coupe : une logette cylindrique peut donner une section d'aspect ovale allongé si elle est coupée obliquement par rapport à son axe. Par ailleurs, les variations au sein d'un groupe homogène selon d'autres critères incitent à la circonspection (par exemple, pour la taille des logettes secondaires Fig. 5.1-2, pour l'ensemble des logettes Fig. 7.1, .3), mais il a semblé que des variations systématiques de ces tailles, associées à d'autres critères, permettaient de distinguer certaines espèces, par exemple S. methonensis de S. renzi. POUR LES TESTS B La famille des Rhapydioninidae présente un dimorphisme de générations des plus importants. Celui-ci est marqué dans les stades initiaux, comme chez bien d'autres groupes, mais également dans les stades adultes où le déroulement, déjà parfois notable dans les tests A, prend des proportions inégalées chez certains taxons. Cette génération est donc à la fois "conservatrice" dans ses stades népioniques (elle rappelle un caractère ancestral) et "novatrice" dans ses stades adultes (elle exacerbe un caractère de la fin du développement de la génération A). Il s'agit donc d'un critère essentiel pour discerner les tendances évolutives, clé de la compréhension de la structure du groupe. Sans doute, les tests de cette gé- nération sont rares et les sections significatives très difficiles à obtenir. Leur recherche constitue cependant une condition sine qua non pour tenter d'approcher la compréhension du groupe. En somme, aucun de ces critères n'est absolu en lui-même. Ils sont indépendants les uns des autres comme le montre la variété des combinaisons observées (Fig. 16). Ce sont leurs associations diverses qui permettent de distinguer des lignes évolutives, avec en particulier l'appoint significatif des tests B. S'il est pratique et confortable de juger des éléments de classification à partir de critères préétablis sur des données très fragmentaires, l'expérience montre qu'on ne peut rien attendre de ces méthodes. Il est vrai que ces considérations ne simplifient pas la tâche de celui qui tente de rendre compte des possibles relations naturelles entre les taxons : les guides de conduite, les règles couramment admises s'effaçant, plus les données s'accumulent et plus la synthèse est complexe. 6 - Biostratigraphie (Fig. 4) La Figure 4 propose une biozonation applicable aux faciès de plate-forme interne pour la période Campanien-Maastrichtien. Issue de l'étude des carbonates de la plate-forme de Gavrovo-Tripolitza en Grèce, elle souffre de la quasi-absence de coupes continues, à l'exception de celle du massif du Klokova (FLEURY, 1974, 1980, et en particulier 2016, Fig. 1), où cependant les organismes les plus typiques de la zone CsB6a ne sont pas observés. Ainsi, les zones CsB6a et CsB6b bien représentées n'ont jamais été observées en superposition directe sur une même coupe et leur distinction ne résulte que d'une parfaite ségrégation en deux groupes des organismes qui y participent. Elle réunit donc des observations éparses et tient compte essentiellement des associations constatées par l'auteur dans de nombreuses localités et par MAVRIKAS (1993) dans le massif du Gavrovo. On notera comme une confirmation les données d'une coupe décrite par CHIOCCHINI & MANCINELLI (2001) dans le Latium italien où sont observées successivement, de bas en haut "Raadshoovenia" salentina (CsB6a), Murciella sp. (CsB6 a ou b), puis Rhapydionina liburnica (CsB7) ; il en est de même des observations de REINA & LUPERTO-SINNI (1993) dans la péninsule Salento. Ces résultats sont appliqués par HEBA (2008), HEBA & PRICHONNET (2009) et LE GOFF et al. (2015) en Albanie et sont proches de ceux de CVETKO et al. (2001) et VELIĆ (2007) sur le littoral croate (Île de Brač, en particulier). Les amendements apparus au cours de la dernière décennie ne sont pas négligeables, surtout liés à l'émergence des techniques fondées sur l'étude des isotopes du strontium (SIS : Strontiun isotope stratigraphy), appliquées aux carbonates 243 Carnets Geol. 18 (11) Figure 4 : Essai de zonation biostratigraphique des faciès de plate-forme interne pour la période campano-maastrichtienne. Les données éparses et discontinues sont issues des travaux de FLEURY (1980, 2014, 2016) et MAVRIKAS (1993) en Grèce. Ces données sont ici complétées par des datations ponctuelles relatives à la zone CsB5 (FRIJA et al., 2015), la zone CsB6a (SCHLÜTER et al., 2008) et la zone CsB6b (VICEDO et al., 2011). Les incertitudes sont soulignées par la discontinuité de la ligne qui sépare les colonnes des zones et des étages. Vers la droite, une colonne (Sédimentation diagenèse) résume schématiquement l'évolution des milieux sur la plateforme de GavrovoTripolitza en Grèce (faciès subtidaux en blanc, faciès d'émersion en gris) ; un trait marquant de cette évolution est constitué par l'émersion généralisée proche de la limite Campanien-Maastrichtien (LANDREIN, 2001). Des phénomènes de même nature, traduits par des lignes discontinues, sont supposés entre les zones CsB6b/CsB6a et CsB6/CsB5 en raison des discontinuités des peuplements et diverses indications rapportées dans le texte. Les publications de l'auteur dans lesquelles apparaissent des figurations de taxons provenant de la coupe du Klokova sont indiquées par un chiffre, entre parenthèses, selon le code suivant: 1= 1970; 2= 1974; 3= 1977; 4= 1979a; 5= 1980; 6= 1984; 7= 2014; 8= 2016; ce chiffre est en italique maigre lorsque l'organisme est présenté en légende de la publication citée sous un nom erroné. de diverses plates-formes du domaine périadriatique. Les modifications qu'elles proposent à nos données s'appliquent à trois périodes.
3,159
2011TOU20035_2
French-Science-Pile
Open Science
Various open science
2,011
Enseigner et apprendre la grammaire : le cas de la phrase et de la ponctuation au cycle II
None
French
Spoken
7,158
11,736
Le chapitre II définit ce qu’est la phrase, en montrant que certains points traités traditionnellement dans la grammaire de phrase peuvent avoir des incidences en lecture et en productions d’écrits. Ce même chapitre aborde, par ailleurs, les différentes fonctions de la ponctuation, notamment celles des différents points de fin de phrase (final, interrogatif, exclamatif, suspensif) et celles des virgules, proposées par les traités théoriques et les guides pratiques. Au chapitre III enfin, le lecteur découvrira de quelle manière de très jeunes enfants du primaire s’approprient et utilisent le système de ponctuation. De même qu’il découvrira la façon dont ces derniers se représentent les fonctions des différentes marques sur la production et la compréhension de texte. Les fondements que nous dégageons dans ces trois chapitres orienteront l’ensemble de nos recherches empiriques présentées dans les troisième et dernière parties de la thèse. 24 Etat des connaissances scientifiques en matière de ponctuation et de phrase CHAPITRE Approche linguistique de la ponctuation SOMMAIRE 1.1 Eléments d’histoire...................................................................... 26 1.2 Quelques définitions................................................................... 28 1.3 Point de vue fonctionnel............. ................ ................................ 39 Résumé ............... ................................................ ................................ 46 25 Partie 1 Chapitre I – Approche linguistique de la ponctuation C e chapitre présente un résumé très bref du développement des théories de la ponctuation de l’Antiquité jusqu’à nos jours et expose les conceptions linguistiques de la notion (définitions, statut du signe, lois de fonctionnement) avec, en corollaire, un coup d’œil sur les inventaires proposés. En matière de ponctuation, les linguistes ne font pas tous les mêmes choix « et, au-delà des particularités de certains inventaires, les différences les plus sensibles portent sur une extension éventuelle du champ de la ponctuation » (Jaffré, 1991). Après avoir abordé les fonctions principales de la ponctuation : syntaxique, énonciative (ou polyphonique) et sémantique, ce chapitre se conclut, comme c’est d’ailleurs le cas pour tous les chapitres composant la première partie de cette thèse, avec un résumé des principaux concepts présentés. 1.1 ELEMENTS D’HISTOIRE Tout commence deux siècles avant notre ère, lorsque deux conservateurs de la bibliothèque d’Alexandrie, Aristophane de Byzance (257-180 av. J.-C) et Aristarque de Samothrace (220-143 av. J.-C), introduisent la première ponctuation dans les copies de L’Iliade et L’Odyssée d’Homère afin de dissiper les ambiguïtés possibles et d’éviter les lectures divergentes, mais aussi de donner des repères pour la diction, la lecture à voix haute (Causse, 1995 : 16 ; Catach, 1994 : 17). La ponctuation consiste en trois signes que l’on peut réduire à un seul – le point – dont la valeur est graduée selon la place qu’elle reçoit par rapport à la ligne d’écriture : le point parfait en haut, le point moyen au milieu et le sous-point en bas, correspondant respectivement et très approximativement à notre point, notre point-virgule et notre deux points. Si ces signes sont enseignés par les pédagogues de l’Antiquité, ils ne sont guère utilisés dans la pratique, soit se passe de toute marque spécifique, soit se contente de séparer de manière plus ou moins fastidieuse chaque mot du suivant par un point fonctionnant comme un blanc graphique (Demanuelli, 1987 : 39). Au IVe siècle, Saint Jérôme et plus tard les Bénédictins exercent une grande influence sur la mise en place des signes de ponctuation. De 26 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 « l’homme scribal » médiéval à « l’homme typographique » de la Renaissance, les signes de renforts de l’écriture, d’abord légers, se compliquent au fur et à mesure que l’obligation se fait sentir d’adapter le système alphabétique hérité de Rome, vieux de plusieurs siècles, aux diverses langues romanes et à leur système phonétique. L’apparition de la lecture silencieuse contribue à doter l’alphabet de dispositifs de plus en plus complexes dont la ponctuation fait partie. Au milieu du XVe siècle, l’’invention de l’imprimerie (1434) marque un tournant : elle entraîne un besoin de codification des usages typographiques. Le traité de Dolet (1540), humaniste et imprimeur, devient alors la bible des imprimeurs avec son cortège de signes ponctuationnels à peu près tels que nous les connaissons aujourd’hui : virgule, deux-points, point, point d’interrogation, point d’exclamation et parenthèses. Dans la réalité, la liste qu’il dresse des signes est relativement réduite, quoique suffisante : le colon, devenu le point, ponctuation forte ; le comma, devenu les deux points, ponctuation moyenne ; le point à queue ou incisum devenu la virgule, ponctuation faible ; plus trois signes secondaires : le point-virgule, le point d’exclamation et les parenthèses (Causse, 1998 : 186 ; Drillon, 1991 : 27 ; Catach, 1994 : 30). Il ne mentionne pas les guillemets, que l’on repère pourtant dès 1527, ni le point-virgule, apparu dans imprimés italiens à la fin du XVe siècle, qui seront adoptés peu à peu. Il faudra encore deux siècles pour compléter la petite troupe de signes dont nous disposons en ce début de troisième millénaire. Apparaîtront, au XVIIe siècle, les points de suspension et les tirets, ces derniers attestés pour la première fois en Allemagne en 1660, tandis que le deux-points se fixera dans sa fonction actuelle au cours du XVIIIe siècle. Les pratiques demeurent très variées malgré l’existence de traités. Ce n’est qu’à la fin du XVIIIe siècle que s’établit un code plus rationnel. Le grammairien Nicolas Beauzée, auteur du chapitre « Ponctuation » dans l’Encyclopédie de Diderot et d’Alembert, insiste sur le rôle syntaxique de la ponctuation, qui aide au décodage du sens. À mesure que se généralise la lecture silencieuse, la ponctuation respiratoire perd du terrain au profit de la ponctuation grammaticale. Jusqu’au XIXe siècle, les auteurs ne se soucient 27 Chapitre I – Approche linguistique de la ponctuation guère de la ponctuation et s’en remettent aux imprimeurs. De plus en plus orienté vers la syntaxe, le code de ponctuation devient rigide. La ponctuation des éditeurs est abondante : ils multiplient les virgules, « corrigent » les auteurs, dénaturant trop souvent le sens de l’œuvre. Certains auteurs, tel George Sand, commencent à revendiquer leur ponctuation et à tenir tête aux éditeurs. Si les usages ponctuationnels tels que nous les connaissons aujourd’hui se sont généralement fixés au XIXe siècle, le système continue néanmoins d’évoluer. En 1912, Apollinaire supprime la ponctuation dans ses poèmes. D’autres écrivains lui emboîtent le pas, marquant ainsi un désir de modernité et d’affranchissement. Les pratiques littéraires de la ponctuation se distinguent alors nettement des pratiques courantes, entre autres par l’usage graphique des blancs en poésie. De nos jours, le nombre des signes de ponctuation s’est accru et la panoplie des caractères spéciaux s’est considérablement élargie. 1.2 QUELQUES DEFINITIONS Après ce survol hardi de l histoire de la ponctuation, venons-en à une analyse méthodique des travaux contemporains sur le sujet. 1.2.1 Qu’est-ce que la ponctuation? Beauzée (1765) la définit comme « L’art d’indiquer dans l’écriture, par les signes reçus, la proportion des pauses que l’on doit faire en parlant. [...] Il est évident qu’elle doit se régler sur les besoins de la respiration, combinés néanmoins avec les sens partiels qui constituent les propositions totales » (« Ponctuation » in l’Encyclopédie de Diderot et d’Alembert, éd. Numérique, CNRS, 1998). Plus d’un siècle après, Damourette (1939 : 6) pense que « Si nous écoutons un Français parler, nous nous rendons compte de toutes les ressources que lui offrent la mélodie et la cadence de sa langue. Un texte écrit manque de toutes ces ressources, et le rôle de la ponctuation est de suppléer à ce manque en donnant des indications aussi précises que possible, permettant de reconstituer ce mouvement vivant de l’élocution orale ». 28 Etat des connaissances scientifiques en matière de ponctuation et de phrase Parti e 1 Il en va en revanche tout différemment chez Grevisse (1986 : 155) qui trouve dans la ponctuation « Des signes conventionnels servant à indiquer, dans l’écrit, des faits de la langue orale comme certaines pauses et l’intonation, ou à marquer certaines coupures et certains liens logiques. » Ce point de vue phonographique va se prévaloir dans les travaux des années quatre-vingt. Plusieurs linguistes (Tournier, 1980 ; Catach, 1980 ; Védénina, 1989) considèrent en effet que les signes de ponctuation codent à la fois l’intonation (valeur suprasegmentale des plérèmes) et, dans une moindre mesure, les relations syntaxiques (jonction / disjonction, dépendance / indépendance, inclusion / exclusion ). Védénina (1989 : 138), dans une position la rapprochant des thèses autonomistes1, insiste sur les « asymétries » entre marques d’intonation et signes de ponctuation. D’autres travaux, plus récents, renouvellent radicalement l’approche de la ponctuation comme en témoignent ces deux définitions : « Les topogrammes, graphèmes ponctuo-typographiques, contribuent à la production du sens, en tant qu’organisateurs de la séquentialité et indicateurs syntagmatique et énonciative ; les topogrammes qui se manifestent de manière discrète [...] dans la chaîne parlée sont dits détachés, ce sont les signes de ponctuation ; les autres qui se surimposent aux séquences alphagrammatiques, sont liés, ce sont les attributs graphiques minuscule/capitale, romain/ italique, normal/gras » (Anis, 1998 : 15) ; « C’est un système de signes linguistiques pleins et non des signes seulement typographiques. Ces signes ne se réduisent pas au marquage de phénomènes suprasegmentaux (intonation, accent et pauses), comme dans la tradition phonocentriste survalorisant l’oral. [...] Pour nous, les signes de ponctuation relèvent d’une approche syntaxique-énonciative de l’écrit, servant à l’ « actualisation » de la langue en discours, selon les calculs énonciatifs du locuteur, qui rendent compte de « la soi-disant instabilité de la ponctuation » (Védénina, 1989 : 121-127) : cela justifie une approche de la ponc1 Selon Anis (1993), l’autonomisme traite de la langue écrite comme un système spécifique en interaction relative avec la langue parlée. Autrement dit, pour les autonomistes, les graphèmes ont une fonction distinctive au même titre que les phonèmes. Ils se répartissent suivant deux catégories : les figures, qui n’ont pas de contenu sémantique et dont la seule fonction est une fonction distinctive ; et les signes qui véhiculent du sens. 29 Chapitre I – Approche linguistique de la pon ctuation tu ation essentiellement autonomiste, qui n’est plus asservie au seul marquage de l’oralité et qui correspond à un « processus muet de coupure optique qui organise l’intérieur du texte » (Boucheron-Pétillon, 2002 : 74), à même d’analyser la problématique des « flottements du sens » (Rabatel, 2006 : 209). 1.2.2 Quel est le statut du signe de ponctuation? Le signe tel que le définit Saussure (1995 : 98) dans son Cours de linguistique générale est l’union d’un concept, le signifié, et d’une image acoustique, le signifiant. L’image acoustique n’est pas le son matériel, « chose purement physique », mais l’empreinte psychique de ce son. « Le caractère psychique de nos images acoustiques apparaît bien quand nous observons notre propre langage. Sans remuer les lèvres ni la langue, nous pouvons nous parler à nous-mêmes ou nous réciter mentalement une pièce de vers. C’est parce que les mots de la langue sont pour nous des images acoustiques qu’il faut éviter de parler des « phonèmes » dont ils sont composés ». Pour Tournier (1980 : 36), le signe de ponctuation est, comme le signe linguistique, constitué d’un signifiant, le ponctuant, et d’un signifié, la ponctuance. Il n’est pas sans rappeler que les signes de ponctuation sont, pour ce qui concerne le signifiant, « sans correspondance phonémique » (Tournier, 1977 : 225). De fait, comme le fait justement remarquer Dahlet (2003 : 20), on se rend bien compte qu’en cours de lecture d’un texte, les signes de ponctuation ne sont pas pourvus d’image acoustique, mais qu’ils le sont, en revanche, dès lors qu’ils entrent de fait dans le champ du signe linguistique. Lapacherie (2000 : 15) concède que les signes de ponctuation ont un signifiant (qui n’est pas une image acoustique, mais graphique), mais refuse l’idée qu’ils auraient un signifié, en vertu de l’instabilité des usages, incompatible avec la stabilité de ce dernier. S’il conteste le fait que les marques de ponctuation soient des signes, au sens saussurien du terme, il accepte en 30 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 revanche la théorie stoïcienne du signe (« aliquid stat pro aliquo »2), en vertu de laquelle les signes de ponctuation sont proches de l’indice peircien3 (Ibid. 15-17), et jouent des fonctions idéographiques (apport d’information, hiérarchisation, etc.) nécessaires à la lecture rapide du texte écrit. Chez Catach (1980 : 26-27), le signe de ponctuation (ou ponctème) se définit comme une unité associant une matérialité et une fonction. Signes linguistiques à plein titre, les ponctèmes sont des unités directement chargées d’un sens et d’une fonction appelés plérèmes par référence à Hjelmslev (1959). Catach distingue ainsi trois sous-niveaux plérimiques (morphogrammique, logogrammique et idéogrammique), la ponctuation relevant du sous-niveau idéogrammique, quatrième et dernière catégorie du plurisystème graphique. Elle pose finalement le postulat suivant : « Tout signe graphique ne peut être compris qu’en fonction d’une abscisse et d’une ordonnée, le premier axe étant parallèle à la chaîne orale et le second en correspondance avec elle » (Catach, 1985, 1988). Dahlet (2003 : 22-23) utilise la distinction hjelmslevienne forme du contenu vs substance du contenu pour définir un niveau hautement abstrait pour le graphème ponctuationnel et un niveau plus spécifique où le positionnement détermine sa signification effective. Ainsi le graphème de la majuscule indique qu’il y a opération sur le mot qui en est doté, et que l’on pourrait désigner d’opération de marquage (Fraternité vs fraternité). La substance du contenu, c’est-à-dire la signification du graphème de la majuscule, ne peut être traitée que par la complémentarité : opération de marquage et positionnement. 2 « Quelque chose qui tient lieu d'autre chose ». Selon Pierce, un signe est soit un indice entretenant une relation métonymique avec l’objet qu’il remplace, soit une relation de contiguïté. Exemple souvent repris : la fumée pour le feu. Soit une icone (sans accent circonflexe lorsqu’on parle du signe peircien) entretenant une relation de ressemblance avec l’objet qu’elle remplace, soit une relation d’analogie. Exemple : la DS de la bannière de ce blog qui renvoie à l’objet DS dans sa matérialité. Soit un symbole entretenant une relation tout à fait arbitraire avec l’objet qu’il remplace. Exemple souvent repris : la colombe pour la paix dont il faut reconnaître que la blancheur est une certaine motivation (un corbeau ne pourrait être symbole de paix). 3 31 Chapitre I – Approche linguistique de la ponctuation Pour Anis (1988 : 245), les éléments ponctuo-typographiques constituent une catégorie de graphèmes (topogrammes) qui se distinguent des graphèmes alphabétiques (alphagrammes) en ce qu’ils sont dotés d’une valeur sémantique, sans constituer cependant des unités significatives comparables aux morphèmes. Les positions d’Arrivé (1988 : 110-113, cité par Jaffré, 1991 : 68) ne sont pas très éloignées de celles d’Anis. Il écrit que « la ponctuation constitue un appareil de facilitation de la lisibilité » et se situe « au-delà du signifiant graphique » (Ibid. : 112). S’interrogeant sur la lisibilité d’un texte dépourvu de ponctuation et sur celle d’un texte uniquement constitué de signes de ponctuation, il constate qu’une succession exclusive de signes de ponctuation permet de souligner qu’une « ponctuation sans texte » ne permet d’obtenir, dans le meilleur des cas, qu’une signification minimale (Ibid. : 113). Les signes de ponctuation fonctionnent alors comme des « phrasoïdes », c’est-à-dire « des sortes de phrases » (Ibid. : 110). La relation directe qui s’établit entre le signifiant de ces signes et leur signifié leur confère le statut d’ « idéogrammes phrastiques » (Ibid. : 111). 1.2.3 Classement des signes de ponctuation L’ensemble des signes de ponctuation se prête à plusieurs classements. Certains linguistes (Damourette, 1939 ; Doppagne, 1998 ; Riegel et al. 1994) les classent en fonction du rôle particulier qu’ils jouent. Damourette (cité par François, 2006 : 35) parle alors de signes pausaux — signes séparant les éléments de texte et marquant des pauses plus ou moins longues, comme par exemple le point, la virgule et le point-virgule — et de signes mélodiques — signes au service de la fonction expressive comme par exemple le point d’interrogation, le point d’exclamation et les points de suspension. Doppagne (1998 : 7) ajoute à cela les signes d’insertion — signes permettant d’intercaler des éléments se présentant par paires dans la phrase : parenthèses, crochets, tirets, guillemets, virgules et barres obliques — et les signes d’appel signalant au lecteur un changement, tel que le passage à une autre section, la présence d’une note en bas de page, le changement 32 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 d’interlocuteur ; on y trouve entre autres l’astérisque, le tiret et l’alinéa. Riegel et al. (1994 : 87) parlent de signes marquant des pauses (point, point-virgule, virgule et point de suspension), de signes à valeur sémantique et énonciative (deux points, point d’interrogation, point d’exclamation, guillemets, parenthèses, crochets, barre oblique et tiret), d’autres signes de ponctuation (astérisque et trait d’union) et de signes typographiques (alinéa et variations typographiques). Védénina (1989 : 7), après le recensement d’une dizaine de signes de ponctuation (points final, interrogatif, exclamatif, suspensif, virgule, pointvirgule, deux-points, tiret, guillemets, parenthèses), distingue dans un premier ensemble ceux qui ne fonctionnent que sous la forme d’un double signe encadrant le segment (guillemets, parenthèses, tirets, etc.) et ceux qui ne connaissent qu’un seul symbole graphique (les points notamment) ; puis, dans un second ensemble : ceux qui sont orientés à gauche (virgule), ceux qui sont orientés vers l’intérieur (parenthèses) et ceux qui sont non-orientés (tiret). A côté des signes qui disjoignent (le point-virgule), on trouve des signes conjonctifs (deux-points), des signes qui isolent (le double tiret) et des signes qui mettent en relief (la virgule). Elle présente ensuite une typologie stricto sensu fondée à la fois sur les critères formels et sémantiques (Ibid. : 8) : signes unilatéraux à valeur modale (points : simple, interrogatif, exclamatif), signes unilatéraux disjonctifs et conjonctifs (point-virgule, deux-points, virgule), signes uniet bilatéraux disjonctifs et isolants (point de suspension, tiret, guillemets, parenthèses). Védénina propose finalement un autre classement incluant la ponctuation élargie et fondé sur l’analyse fonctionnelle (Ibid. : 131) : la virgule, le point-virgule et les deux points font partie des procédés de la syntaxe constructive ; la syntaxe communicative, pour exprimer la valeur informationnelle d’un segment, possède ses moyens à elle qui sont les tirets, les guillemets et la mise en vedette typographique ; tandis que le blanc, les majuscules, le point ’exclamation forment le répertoire sémantique. D’autres linguistes (Tournier, 1980 ; Catach, 1980 ; Dugas, 2004) analysent la ponctuation en fonction des unités linguistiques touchées, c’est-à- 33 Chapitre I – Appro che linguistique de la pon c tuation dire selon le niveau linguistique où interviennent les signes de ponctuation. Ils distinguent alors la ponctuation de mot relevant de l’orthographe (blanc de mot, apostrophe, trait d’union), la ponctuation de phrase structurant l’intérieur de la phrase et la délimitant (point, point-virgule, deux-points, virgule, majuscule, etc.) et la ponctuation de texte ou « macro-ponctuation » permettant de diviser un texte long en plusieurs parties (alinéa, retrait, paragraphe). Notons que seule Dahlet (2003 : 41-47) consacre une analyse développée à la ponctuation de mot. Son inventaire, plus large que les autres (point abréviatif, parenthèses, points de suspension, trait d’union, apostrophe, majuscule) exclut cependant l’espace-mots (Ibid. : 24). Catach (1994 : 57) distingue les signes de premier et de second régime et reconnaît ainsi une certaine hiérarchie des signes de ponctuation. Le premier régime correspond chez elle au centre du système de ponctuation (signes de clôture et autres signes logiques) ; le second, à la périphérie où sont mis majuscules, abréviations, traits d’union, apostrophes, blancs, soulignés, caractères italiques. La destination des signes de second régime est considérée comme supplémentaire : organiser graphiquement le texte déjà divisé à l’aide des signes de premier régime. Arabyan (1994) donne aux signes supplémentaires de ponctuation le nom de paratexte et reconnaît lui aussi une hiérarchie des signes du système. D’après lui, certains signes accomplissent ces fonctions à l’intérieur du texte, d’autres lui donnent une forme. Dans la seconde catégorie, Arabyan inclut les blancs, les différents caractères et aussi les notes sur les marges. Vanoye (1989), de son côté, divise tout le système de ponctuation en micro-ponctuation que l’on ne perçoit presque pas (signes traditionnels) – et en macro-ponctuation – toujours bien perçue. Dans ce macro-système entrent tous les types de la mise en relief visuelle dans le texte : le dessin des caractères, la dimension et la place des lignes sur la page. Ces dernières, dit-il, peuvent être présentées dans le « corps » du texte aussi bien que sur les marges. Anis (1988) et plus tard Dahlet (2003 : 25-26) proposent deux grandes classes de signes de ponctuation : les syntagmatiques ou signes de séquence – qui segmentent le continuum scriptural (Anis, 1988 : passim), délimitent 34 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 les séquences en les regroupant/séparant, et qui enfin les hiérarchisent en indiquant la nature de leur relation (alinéa, point, point-virgule, virgule) – et les polyphoniques ou signes d’énonciation – qui, lorsqu’ils n’indiquent pas le discours cité, manifestent un « décrochage énonciatif » (Ibid.: 122) consistant à marquer une distanciation par rapport à l’énoncé, d’où la création d’un effet de sens (deux-points, parenthèses, tiret double, capitale, soulignement, italique, gras, tiret, points interrogatif, exclamatif et suspensif, guillemets, italique, tiret de dialogue). Dans une démarche plus originale enfin, Arrivée (1988 : 101) délimite la ponctuation en examinant, dans un premier temps, le clavier de sa machine à écrire. Le clavier lui fournit en effet, à l’état brut, l’inventaire des éléments utilisés pour la manifestation graphique du discours, sans référence obligée à sa manifestation orale. Les « touches littérales ou alphabétiques » et les « touches idéographiques » listées, il reste encore à décrire un certain nombre de touches. C’est à ce « résidu » que l’auteur donne, de façon arbitraire, le nom traditionnel de signes de ponctuation. Au bout du parcours, après l’inventaire des signes ponctuels au sens strict du terme, Arrivée (Ibid. : 104-105) ajoute le blanc d’espacement entre les mots, et dans la foulée, l’alinéa. Il ajoute aussi l’opposition majuscule/minuscule et le trait de soulignement ; puis l’italique et l’opposition maigre/gras. L’auteur exclut en revanche les éléments d’agencement général de la page et du livre : justification – au sens typographique du terme –, marques, filets, disposition des titres de chapitres, ornements divers, etc. 1.2.4 Lois linguistiques et règles typographiques Quels que soient les différents classements des signes en ponctuation, ils sont tous, comme le rappelle justement Rabatel (2006 : 211), confrontés au fait qu’un même signe peut être analysé comme « signifiant » ou comme « signifié » et aux relations qui existent entre un signifié en langue et les significations discursives que le même signe est appelé à prendre selon les contextes. En discours, écrit-il, un même signe (signifiant ou ponctuant) cumule des valeurs variées (signifié, ponctuance, selon Tournier), notam- 35 Chapitre I – Approche linguistique de la ponctuation ment des valeurs modales et des valeurs séparatrices, en vertu d’un certain nombre de « lois » (Tournier, 1980 : 39) : ₪ LOI D’EXCLUSION : Certains ponctuants s’excluent mutuellement, c’est-à-dire que même s’il y a, en ce point du discours, plusieurs ponctuances à marquer, un seul ponctuant est réalisé, et une seule fois. Une parenthèse ouvrante, par exemple, ne peut suivre une virgule ; de même, un point ne peut suivre ni une virgule, ni un deux-points, ni un pointvirgule, ni des points d’interrogation, d’exclamation ou de suspension. On peut rencontrer plusieurs signes englobants à la suite, tels parenthèse fermante et guillemet fermant, mais pas plusieurs signes séparateurs stricts. ₪ LOI DE NEUTRALISATION : Si en un point du discours plusieurs ponctuances doivent être marquées, et ne peuvent normalement l’être que par le même ponctuant, celui-ci n’est réalisé qu’une fois. L’exemple le plus courant est l’absorption du point final par le point abréviatif. Cette même explique que la présence du point de fin de phrase avant le guillemet fermant exclut tout nouveau marquage de fin de phrase par un nouveau point ensuite, la majuscule qui ouvre la nouvelle phrase signalant rétrospectivement la fin de l’ensemble. ₪ LOI D’ABSORPTION : Il existe des signes qui ne peuvent apparaître l’un à côté de l’autre, bien que comportant des ponctuants et des ponctuances différents : dans de tels cas, un seul ponctuant est réalisé et il se charge alors de sa ponctuance propre et des autres. Une virgule double, par exemple, peut être absorbée en début ou en fin de phrase. Cette loi explique aussi que la présence des points d’interrogation, d’exclamation ou de suspension en fin de phrase, indiquant une modalité, 36 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 absorbent le point final, et se chargent d’exprimer en sus des modalités une valeur de séparation syntaxique. Cinq autres « propositions de lois » viennent compléter celles-ci (Catach, 1994 : 121-122). Elles se résument ainsi : ₪ PREMIERE LOI : Tout segment syntaxique constitue en même temps un groupe de sens. La ponctuation doit donc respecter avant tout une loi fondamentale : sauf accidents de discours, ne jamais séparer ce que le sens unit étroitement (déterminant/déterminé, sujet/prédicat, etc.). ₪ LOI D’ANTICIPATION : Cette obligation est si forte qu’au seuil d’un groupe de sens que l’on sait devoir être long [...], il est préférable de prévoir à temps une prise d’air, ou à l’écrit un signe, permettant de ne pas s’arrêter ensuite. ₪ LOI DE LA LONGUEUR : Le nombre et la qualité des signes sont fonction de la longueur des phrases [...]. Cette loi n’est valable que si elle entre en conflit avec les autres lois. ₪ LOI DES ACCIDENTS DE DISCOURS : La ponctuation de la phrase complexe formée de parties imbriquées est indispensable, celle de la phrase simple, même longue, ne l’est pas. La syntaxe constructive n’a en elle-même aucune nécessité de signes internes [...]. En revanche, l’accident du discours [...] appelle les signes. La virgule, par exemple, apparaîtra dans trois cas : juxtapositions (virgules plus), incises, inversions de groupes (virgules moins). Les positions privilégiées des accidents de discours sont l’initiale et la finale. Les accidents internes, plus lourds à gérer, peuvent souvent être, sauf effet de style, évités. 37 Chap itre I – Approche linguistique de la ponctuation ₪ LOI DE SOBRIETE : A/ « Pas plus de signes que de choses à signifier » : il faut [...] tenir à tout instant compte de « l’unité de la pensée totale, réellement indivisibles ». Cependant, il faut tenir compte aussi de la clarté de l’énonciation. Un équilibre est donc à trouver entre les impératifs complémentaires de l’unité de la pensée, des accidents du discours et du souci d’éviter l’ambiguïté. B/ « Pas de signes en cascade » : une des conséquences majeures de la loi de sobriété est celle-ci : quand une ponctuation de groupe partiel devrait être immédiatement suivie d’une autre ponctuation de groupe de même rang ou de rang supérieur, la première s’efface devant la suivante. En confrontant ces lois aux règles typographiques, Purnelle (1998 : 217219) tire cette règle générale : « Pour les typographes, on ne peut imprimer une séquence contenant plus d’un séparateur. C’est [...] la loi d’absorption de Tournier. Celle-ci montre, d’un point de vue linguistique, que la fonction de séparation n’a pas besoin d’être localement répétée, et qu’un seul séparateur dans une séquence suffit à l’assumer. » Plusieurs autres règles montrent que cet interdit, où l’on peut voir un effet du principe d’économie, n’est pas totalement fondé sur la concurrence et la cumulation des fonctions des signes de ponctuation. L’auteur revient sur la loi de neutralisation et montre que « Les deux occurrences du même signe n’assument pas la même fonction, le point abréviatif n’étant pas un signe séparateur. Il s’agit du même signe graphique, mais pas du même signe sémiotique. Ce n’est donc pas la redondance fonctionnelle qui amène le code à réduire les deux points en un seul. Le principe d’économie ne porte pas ici sur le signifié, mais sur le seul signifiant. La raison en serait plutôt à la fois un souci d’économie et d’élégance : il s’agit d’éviter une telle contiguïté d’un signe avec lui-même. [Il en va de même] pour les points de suspension [et le point final] en fin de phrase [qui n’indiquent pas toujours la même ponctuance]. » Cohérent avec sa règle générale, Purnelle conclut que « Toutes les règles montrent, chez les typographes, une nette réticence à cumuler les signes de ponctuation, une propension à limiter au maximum la longueur de toute séquence. Dans cette perspective seront prioritaires ceux qui, pour des raisons 38 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 autres que la fonction générale de séparation, sont indispensables [...]. C’est donc la précision sémantique apportée par la ponctuation qui l’emportera toujours sur la fonction de séparation. Il existe une « syntaxe typographique de la ponctuation ». On l’a vu, le code typographique, dans sa volonté de règlementer strictement la ponctuation du texte écrit, montre localement ses limites et ses contradictions. La règle typographique gêne localement par plusieurs côtés : elle peut être arbitraire, pécher par excès de rigueur ou d’intransige , souffrir des apories. Ceci provient [...] du fait qu’après s’être fondée sur la grammaire et le bon sens, elle s’est développée dans une perspective nettement mécanique, sous l’effet d’un principe d’économie dont l’application s’est déplacée du plan des fonctions de signes de ponctuation vers celui de l’esthétique du texte imprimé. Des réactions s’expriment, non seulement dans des ouvrages que leur objet n’assujettit pas obligatoirement au code typographique, mais aussi dans certains traités dont le but est la vulgarisation de celui-ci. [...] Et certes, si leur raison d’être se réduit après analyse à de simples questions d’économie et d’esthétique, il conviendrait de briser ponctuellement l’intransigeance du code, et de rappeler par là son caractère tout relatif de convention. » 1.3 POINT DE VUE FONCTIONNEL Il peut être sûrement tentant, lorsqu’on s’intéresse à la ponctuation, d’en aborder l’étude en assimilant a priori son fonctionnement à celui de la prosodie (Ferrari & Auchlin, 1995 : 35). Cependant, la plupart des travaux linguistiques qui lui sont consacrés (Tournier, 1980 ; Catach, 1980, 1994, 1998 ; Védénina, 1989 ; Anis, 1988) rappellent que la ponctuation est porteuse d’indications syntaxiques, sémantiques et énonciatives. En voici une brève description. 39 Chapitre I – Approche linguistique de la ponctuation 1.3.1 Tournier Après avoir passé en revue les principales approches de la ponctuation dans la tradition linguistique française du XVème au XXème siècle, Tournier (1980 : 37) montre que la fonction majeure de la ponctuation consiste à délimiter des segments à l’intérieur d’un énoncé. Il établit à ce titre une répartition des signes en ponctuation de mot (blanc graphique, apostrophe et trait d’union) ; en ponctuation de phrase, elle-même subdivisée en signes qui délimitent la phrase (majuscule, points : simple, interrogatif, exclamatif, et plus rarement, suspensif), en signes qui délimitent des parties de la phrase (virgule, point-virgule, deux-points, guillemets, parenthèses, crochets), en signes qui délimitent des éléments constitutifs de la phrase (virgule, pointvirgule, deux points), en signes qui permettent l’interruption de la progression normal de la phrase pour y inclure une phrase ou une partie de phrase (guillemets, parenthèses, crochets, tirets), tous ces signes étant rangés par ordre de pouvoir isolant décroissant ; en ponctuation métaphrastique ou utilisation de l’espace blanc de la page (alinéa, titre, intertitre, etc.) ; en ponctuation spécificatrice dont la fonction première est de signaler certains mots ou séquences dotés d’une spécificité particulière (jeu de caractères, soulignement, capitales, etc.). 1.3.2 Catach Pour Catach (1980 : 17), les signes de ponctuation jouent trois rôles majeurs : ils servent à unir et à séparer les segments de l’énoncé, à distinguer ce qui doit être syntaxiquement uni et séparé (« organisation syntaxique ») ; ils marquent des traits aux tels que les pauses et les intonations (« fonction suprasegmentale ») ; ils apportent une précision sémantique au message écrit (« complément sémantique »). Dans un ouvrage plus récent (1996 : 48), elle déclare que la ponctuation moderne est « essentiellement syntaxique », opérant aux trois niveaux du texte, de la phrase et du mot. A la ponctuation générale (ou « constructive ») délimitant les principales unités du texte s’oppose la ponctuation séquentielle qui organise l’intérieur de la phrase. La ponctuation constructive opère 40 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 comme nous l’avons vu sur trois paliers structuraux, pour chacun desquels différents signes s’opposent systématiquement par leur « force » de délimitation. Cette ponctuation constructive se divise à son tour en ponctuation séquentielle intégrée apportant un soutien à la structuration syntaxique et en ponctuation séquentielle non intégrée (ou de second régime) marquant l’hétérogénéité énonciative ou les insertions (ibid. : 50) : au niveau du texte interviennent les espaces larges isolant les « périodes », autrement dit l’alinéa (force 7), la majuscule et le point, le paragraphe (force 6) ; dans l’ordre de la phrase, les délimitations externes de la phrase complexe sont assurées à nouveau par la majuscule et le point, les séparations internes par le point-virgule, les deux points et les points de suspension (à quoi s’ajoutent les points dits « de modalité » : point d’interrogation et point d’exclamation) (force 5), quant aux propositions, elles sont le plus souvent encadrées par les virgules (force 4) ; enfin, au niveau du mot interviennent entre autres les virgules, signes doubles des coordinations et du détachement (force 1, force 2, force 3) (ibid. : 52). Comme on le voit, une même figure de signe peut cumuler plusieurs valeurs, opérer à plusieurs niveaux et avec plusieurs forces mais il reste que le point, éventuellement sous ses formes modales, et suivi de la majuscule, est l’unité de bornage phrastique privilégiée. Finalement, d’autres travaux intégrant les « deux variantes fondamentales universelles que sont l’écrit et l’oral » (1994 : 97) posent la ponctuation comme la seule trace matérielle de cette « troisième articulation du langage que constituent l’intonation et le suprasegmental » (1998 : 38-40). Par l’intermédiaire d’un processus appelé « montée des ponctèmes » (1991 : 57), la ponctuation participe à « l’actualisation » qui transforme la langue en discours. 41 Chapitre I – Approche linguistique de la ponctuation 1.3.3 Védénina Védénina (1989 : 131, cité par Jaffré, 1991 : 72-73) pense aussi que la ponctuation entre dans un triple mécanisme mais les plans linguistiques qui le déterminent (grammatical, communicatif, et sémantique) sont sensiblement différents de ceux de Catach. Partant du principe que « la ponctuation aide l’ordre des mots, les mots de liaison et l’ellipse dans leur collaboration pour former la phrase », Védénina (1989 : 115) procède à un examen de la position des groupes syntaxiques et de leurs constituants. Elle prend comme point de départ la « triade prédicative » de Bailly (sujet-verbe-complément d’objet). Dans cette structure de base, les constituants de groupe (épithète, complément circonstanciel) se déplacent, entraînant une rupture de la linéarité, qu’il s’agisse « des segments soi-disant condensés », « des segments extrapolés », « des segments en opposition » ou « des incises » (Ibid. : 116). C’est dans ce cadre syntaxique que la ponctuation vient remplir sa fonction : « elle devient pertinente, en marquant les limites de la proposition à l’intérieur de la phrase, pour en “extraire” tout ce qui n’est pas syntaxiquement organisé » (Ibid. : 117). Védénina relève aussi un parallélisme fonctionnel entre les signes de ponctuation et les conjonctions, « les premiers marquant les limites des segments » et « les derniers qualifiant les rapports entre les segments » (Ibid. : 118). Même si effectivement les règles fonctionnelles peuvent varier. Quand les conjonctions et les mots fonctionnels ne sont pas nombreux, la ponctuation est absente ; en revanche, quand la phrase contient plusieurs mots de liaison, notamment « à la jointure des segments », la virgule permet de distinguer les conjonctions intérieures et extérieures. Plus la ponctuation est pauvre et plus la présence de la conjonction se suffit à ellemême ; par contre, la présence d’une virgule à l’intérieur d’une phrase entraîne l’apparition de signes plus forts, comme par exemple les points ou le point-virgule. A l’opposé, la parataxe représente une organisation syntaxique particulière qui ne peut être confondue avec « l’omission d’une conjonction » : la ponctuation et les conjonctions s’apportent une aide mutuelle mais elles ne s’identifient pas pour autant l’une à l’autre (Ibid. : 119). 42 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 Védénina (cité par Jaffré, 1991 : 75-76) attache par ailleurs une grande importance à la ponctuation « communicative » qui permet « la reconstruction des modèles syntaxiques standards en exprimant les intentions intimes du scripteur » et qui joue un « rôle actualisateur » en « transformant une proposition virtuelle », en l’identifiant à une « situation de communication » (Védénina, 1989 : 121). Commentant la notion de thématisation, Védénina constate que « les membres des groupes syntaxiques tendent, dans la parole, à échapper à la discipline positionnelle et à occuper la position qui convient le mieux à leur charge communicative. La langue permet ces violations de la séquence progressive à condition que chaque infraction à la règle de l’ordre des mots soit “excusée”. [...] Elle possède plusieurs moyens pour cela [et] la ponctuation en représente un, le moins étudié par les linguistes » (Ibid. : 122). C’est ainsi qu’un groupe périphérique comme « un jour » s’insère dans une phrase, provoquant ainsi une nouvelle séquence « imposée par le rôle communicatif des segments ». Il en résulte une hiérarchisation que Védénina décrit de façon métaphorique. Les segments « rompus » s’organisent en trois étapes : le rez-de-chaussée avec les membres isolés de phrase ; le premier étage et l’ossature de la phrase (sujet/verbe/complément direct/attribut) ; la mansarde et les phrases complexes (Ibid. : 123). Les segments « rupteurs », qui s’intercalent dans les précédents, se divisent euxmêmes en « segments non prédicatifs » (ce sont les épithètes et les compléments circonstanciels) et en « segment prédicatifs » (constructions absolues, propositions infinitives et participes, etc.). L’actualisation de la phrase passe évidemment par le lexique mais quand ce dernier est « neutralisé », le scripteur peut, avec les signes de ponctuation, « augmenter le poids informationnel d’un mot [ou] d’un groupe de mots » (Ibid. : 124). « La ponctuation contribue [également] à l’augmentation de la valeur communicative des mots non autonomes » (Ibid. : 125). La valeur communicative des segments peut s’exprimer par les seuls signes de ponctuation, le segment rhématisé devenant un élément à part. Dans un autre aspect, proprement « sémantique », Védénina (cité par Jaffré, 1991 : 78) envisage la corrélation directe entre la ponctuation et le sens. Les aspects syntaxique et communicatif évoqués ci-dessus ont bien à voir avec le sens, mais d’une manière indirecte visant à satisfaire les besoins de l’expression linguistique. Parmi les signes sémantiques, Védénina différencie les signes de démarcation, les signes de régulation et les signes de qualification. Les signes de démarcation (blanc typographique directement liés au sens, majuscules et points délimitant la phrase ; virgules aidant le lecteur à s’orienter dans le texte) font apparaître des oppositions significatives (Védénina, 1989 : 129). Les signes de régulation font entrer les membres d’une phrase dans tel ou tel segment et permettent au « sujet écrivant d’inclure (ou de ne pas inclure) un membre dans le noyau qui véhicule l’information essentielle ». Les signes de qualification regroupent des signes à valeur modale : les guillemets annonçant le changement de registre ; le point d’interrogation et le point d’exclamation exprimant une modalité non assertive. Védénina conclut in fine qu’elle a constaté que « les signes de ponctuation sont rattachés à trois plans linguistiques : [...] la syntaxe constructive ; la syntaxe communicative [...] le répertoire sémantique. Cette distribution de rôles doit être traitée non comme la fixation rigide d’un signe à une sphère déterminée mais comme la dominante fonctionnelle d’un symbole graphique. Les signes de ponctuation [...] s’emploient dans une fonction secondaire. [...] La phrase française est donc enveloppée d’un triple réseau 44 Etat des connaissances scientifiques en matière de ponctuation et de phrase Partie 1 de ponctuation constitué par les es syntaxiques, communicatifs et sémantiques » (Ibid. : 131). 1.3.4 Anis Quant à la typologie d’Anis (1988 : 122), elle est essentiellement binaire. Elle oppose le fonctionnement syntagmatique au fonctionnement « polyphonique ». Le fonctionnement syntagmatique va de la syntaxe « stricte » à la syntaxe textuelle — progression thématique et organisation supraphrastique. On y trouve l’inventaire restreint des signes de ponctuation : la capitale initiale, les points simple, interrogatif, et exclamatif, la virgule, le point-virgule et les deux points. Ce topogramme remplit deux fonctions essentielles : une fonction énumérative et une fonction de détachement, la plus complexe selon Anis, dans la mesure où elle attribue aux groupes concernés soit un statut appositif, soit un statut circonstanciel. Sous le terme « polyphonique », emprunté à Ducrot (1984), Anis entend par là, non seulement ce qui relève du discours rapporté mais tout ce qui relève d’un décrochage énonciatif. Il regroupe l’interrogation et l’exclamation, les marques explicites du discours rapporté, les hiérarchiseurs discursifs et les marqueurs expressifs. L’interrogation et l’exclamation fonctionnent comme des modalités marquées. Les guillemets constituent le topogramme de base des marques explicites du discours rapporté. Les hiérarchiseurs discursifs sont avant tout marqués par les deux points qui, quand ils précèdent un segment d’énoncé, indiquent « continuité et dépendance par rapport au contexte de gauche » avec un « décrochage énonciatif » qui leur permet de s’insérer à n’importe quel niveau syntagmatique. Quant aux parenthèses et tirets parenthétiques, ils insèrent dans un texte « un élément extérieur à la continuité syntagmatique et à la conférence énonciative ». Les marqueurs expressifs enfin (zone polyphonique) sont marqués par le soulignement, l’italique et la capitalisation. Il faut y ajouter les points de suspension simulant « une interruption de la 45 itre I – Approche linguistique de la ponctuation chaîne graphique » et le tiret simple indiquant une « rupture/reprise » au milieu d’une phrase. RESUME Ce chapitre présente une analyse méthodique des travaux linguistiques contemporains selon un axe structural au cours de laquelle sont exposés les trois courants majeurs de la recherche : Catach (1980) et sa hiérarchisation en trois ordres : le mot, la phrase et le texte ; Védénina (1980) et sa répartition en trois plans : syntaxique, communicative et sémantique ; Anis (1988) et sa distinction en trois types de graphèmes : alphagrammes, topo- grammes et logogrammes. Conjointement, ce chapitre met en évidence les différents inventaires de signes proposés par les mêmes auteurs plus quelques autres ainsi qu’un certain nombre de lois de fonctionnement : les lois d’exclusion, de neutralisation, d’absorption dégagées par Tournier (1980) ; et les lois première, d’anticipation, de longueur, d’accidents de discours, de sobriété dégagées par Catach (1994). Une analyse fonctionnelle convoquant les mêmes travaux clôt ce premier chapitre : la fonction syntaxique, admise par tous ; la fonction énonciative (ou polyphonique), privilégiée par Védénina (1989) et Anis (1988) ; la fonction sémantique, avancée par Védénina (1989).
53,993
12/dumas.ccsd.cnrs.fr-dumas-01237013-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,186
14,046
FACULTÉ DE MEDECINE HYACINTHE BASTARAUD 2015AGUY DEVENIR DES PERSONNES AGEES APRES UN SEJOUR EN ANIMATION ORTALITE ET VIE A MOIS ETUDE DEPARQ THESE Présentée et soutenue publiquement à la Faculté de Médecine Hyacinthe BASTARAUD des Antilles et de la Guyane Et examinée par les Enseignants de ladite Faculté Le 26 mai 2015 Pour obtenir le grade de HINAUT RONAN Examinateurs de la thèse : M. DABADIE Philippe, Professeur (Président) M. CESAIRE Raymond, Professeur M. CABRE Philippe, Professeur M. DELIGNY Christophe, Maître de conférences M. VALENTINO Ruddy, Docteur M. CHABARTIER Cyrille, Docteur (Directeur) 2 Remerciements A Monsieur le Professeur DABADIE, merci de me faire l'honneur de présider mon jury de thèse et de m'avoir fait profiter de votre enseignement. A Monsieur le Professeur CESAIRE, doyen de la faculté des Antilles-Guyane, merci de me faire l'honneur de participer à mon jury de thèse. A Monsieur le Professeur CABRE, je suis honoré de votre présence au sein de mon jury de thèse. AuDocteur DELIGNY, Maître de conférence,je vous remercie d'avoir accepter de participer à mon jury de thèse. Au Docteur VALENTINO, mes plus sincères remerciements pour votre à mon jury de thèse. Enfin, merci de ne pas m'avoir fait trop peur durant mon premier passage dans le service,et de me faire l'honneur de pouvoir revenir travailler avec vous. Au Docteur CHABARTIER, je te remercie de m'avoir appris toute, enfin presque toute la réanimation. Merci d'avoir pris le temps et de m'avoir aidé à réaliser cette thèse. Au Docteur MEHDAOUI,merci d'avoir oeuvré dans l'ombre pour que ce semestre 2012-2013 chez vous ait été pour moi et mes co-internes du moment, inoubliable et si formateur. Au Docteur MERLE.S et BANYDEEN.R merci pour votre aide statistique précieuse. 3 Parce que au commencement il y avait la Guadeloupe : Un grand merci aux Docteurs : Bahsoun.K,Belhamissi.H, Ouro.F, et à toute l'équipe d'IADE du CHU : Gaël, Zenar, Elina, Léna, Caroline,Max et tous les autres. Vous qui m'avez fait passer une première extraordinaire année d'internaten Guadeloupe et m'avoir appris { mettre mes premiers tuyaux, je ne vous oublierai JAMAIS. 2ème année de rêve en Martinique : Un grand merci aux Docteurs en plus de ceux déjà nommés : Jean-Louis (Caen fait vraiment les meilleurs réanimateurs), Michel (Sherlock Holmes), Etienne (pour le squat du bureau), Dabor (Tonnerre tu es mon ami!!), Caroline et Emilie(pour toutes les gardes que j'ai passé avec vous et tout ce que vous m'avez appris). Carmen (ma maman martiniquaise, que j'ai pas assez appelé pendant mon passage { Paris), Thierry (Pour le souvenir de ton kilt!! Et pour ton aide précieuse), Mathieu,enfin { tout ceux que j'oublie. Un grand merci { vous pour m'avoir appris tant de choses. A l'équipe infirmière de Réa de FDF (Nerlande, Céline, Fabienne, et tous les autres) qui ont fait que j'ai vraiment envie de revenir ;-) Merci { l'équipe de réanimation chirurgicale de Saint Antoine et en particulier aux Docteurs LESCOT.T, BIZET.S, CAMUS.T,LE MEE.J, MASINI.J-P merci pour tout!!! Merci { l'équipe d'anesthésie-réanimation de chirurgie cardiaque de Bichat et tout particulièrement aux docteurs : DILLY M-P (pour ta gentillesse et pour ton savoir),IBRAHIM.H, à la jeune maman Lucie Marianniet aux jeunes Dr THORGAL et BOHADANA parce que Caen est une équipe qui gagne!! Merci { toute l'équipe de réanimation chirurgicale de la Pitié et en particulier à : -GASTON-C aux docteurs : ARBELOT.C (pour ta patience et ta gentillesse), DERANSY.R (Le citrate ça vous gagne!!), GARCON.P(Tonner re nous avons un ami en commun!!), LE CORRE.M ( Rdv au soleil) et BODIN.L -HUSSON-M les docteurs : TRAN.M, PONS.A, BRISSON.H, MONSEL.A, VEZINET.C pour avoir attendu patiemment les press, ce qui a du être un peu long quelquefois 4 A tout mes cointernes : Fabien, Fion, Adrien, Deborah, Agathe, Rita, Enora, Sonia, Hanen, Marine, Coraline, Maxime, Et surtout à toi Bénébitch sans qui cette thèse serait sûrement illisible Et { toi Lulu pour m'avoir appris l'échocoeur et pour ces 6 mois inoubliables en réanimation à FDF A ma famille : Un merci à vous : Henri, Josette, Pierre et Jeanne Papa et Maman, en faisant courtparce qu'une simplethèse ne suffirait pas, MERCI pour tout!!! DADY (hein-hein) : parce que partager ma vie avec toi depuis 28 ans, c'est (la plupart du temps) indescriptible!! Et merci { toi Ionie ma belle soeur. A mes amis dans le désordre : Antoine (pechou) oui,oui, on va la refaire cette croisière Edouard (shaman) parce que l'apposition de mains ne peut pas guérir les gens ;-)!! Morino parce que tu me suis depuis 15 ans!! Gwénolé pour m'avoir appris { manger les pâtes avec les mains!! Chabinou parce que c'est quand même aussi grâce { toi si j'ai écrit cette thèse et pour tout le reste. Nino, Laurent, Joan, Loison, JC, Dr Renouf.M Dave parce que bientôt je nagerai plus vite que toi. 5 Merci pour ce 25'84'' et mention spéciale à Sylvère, Patrick, Gaëlle, Jérôme et { tous ceux du CNP en général pour m'avoir fait sortir la tête de l'eau ;-) pendant ces 2 ans à Paris. Au souvenir de ces années jusqu'à Douai 2011 : Tomtom, Alex, Anton, Anne, Fredouille, Carlos, TiboFislip, Francis, Samu, Hakim Mimisiku, Philou Et { tout ceux que j'oublie Merci à la plus belle : Parce que vivre avec un ours n'est pas facile tous les jours, Parce que la vie avec toi est toujours plus douce, Parce que sans toi beaucoup de choses n'auraient pas été possible Pour ton soutien, ton amour Merci à toi Solène Philippe!! Je ne remercie pas Microsoft pour leur conception aussi naze de leurs logiciels de texte et de m'avoir fait perdre autant de temps. « C'est le devoir de chaque homme de rendre au monde au moins autant qu'il en a reçu » A. Einstein 6 SOMMAIRE REMERCIEMENTS 2 ABREVIATIONS 7 INTRODUCTION 8 9 CONCEPTION DONNEES ETUDI EES CRITERE DE JUGEMENT PRINCIPAL CRITERE DE JUGEMENT SECONDAIRE DONNEES RECUEILLIES GESTION DES DONNEES ANALYSE STATISTIQUE COMITE DE PROTECTION DES PERSONNES 9 10 10 11 12 13 14 15 RESULTATS 15 EXCLUSIONS PATIENTS INCLUS QUALITE DE VIE A J0 QUALITE DE VIE A M6 VARIATION DE QUALITE DE VIE ENTRE J0 ET M6 MORTALITE 17 17 19 20 21 26 DISCUSSION 29 CONCLUSION 36 37 43 ANNEXES 44 DOCUMENT INFORMATION PATIENTS DOCUMENT D'INFORMATION POUR LE REPRESENTANT AVIS DU COMITE DE PROTECTION DES PERSONNES AVIS DU COMITE NATIONAL DE L'INFORMATIQUE ET DES LIBERTES 44 47 53 55 AUTORISATION D' IM PRIMA TUR 56 7 Abréviations CUB- Réa= Collège des Utilisateursde la Base de donnée des Réanimations DRCI= Direction de la Recherche Clinique et de l'Innovation CHUM= Centre Hospitalo-Universitaire de Martinique CPP= Comité de Protection des Personnes J0= date d'entrée en réanimation M6= date de recueil des nouvelles 6 mois après la date d'entrée en réanimation M1= date de recueil de la mortalité { 1 mois après la date d'entrée en réanimation EVA= Echelle Visuelle Analogique IGS2= Index Gravity Score 2 VNI= Ventilation non invasive PaO2= Pression artérielle en oxygène FiO2= Fraction d'oxygène inspirée TP= temps de prothrombine TCA= temps de céphaline activée CNIL = Commission nationale de l'Informatique et des Libertés n= nombre p= valeur de p SF36= RAND36 =Short FormHealth Survey 36 NHP= Nottingham Health Profile ADL= Activities Daily Living iADL= instrumental Activities Daily Living SOFA= SequentialOrgan Failure Assessment 8 Introduction Les personnes âgées, définies selon l'Organisation Mondiale de la Santé comme toute personne de 65 ans ou plus(1), représentent actuellement une proportion très variable de la population à travers le monde(2). Dans les pays industrialisés,on observe un décalage de la pyramide des âges vers le haut, par baisse de la natalité, vieillissement des tranches d'âges du baby boom et allongement de l'espérance de vie dû aux progrès médicaux(2). Cette tendance devrait se poursuivre en France métropolitaine dansles vingt prochaines années, avec aux horizons 2030 une part des plus de 65 ans à 23,5% de la population générale, contre 18,6 % actuellement (3). Aux Antilles, le vieillissement de la population sera plus marqué avec 26% pour la Martinique et 24% pour la Guadeloupe,contre 13,2% et 11,2% respectivement(4). Conception Après consultation et aide de la Direction de la Recherche Clinique et de l'Innovation (DRCI) du Centre Hospitalier et Universitaire de Martinique (CHUM), nous avons réaliséune étude prospective, mono centrique, en soins courants, dans le service de réanimation du CHU de Martinique, à Fort-De-France. Etaient inclus tous les patients résidants martiniquais d'un âge supérieur ou égal à 65ans, hospitalisés pour la première fois en réanimation, pour un séjour d'une durée supérieure à 48h et affiliés à un régime de sécurité sociale. L'absence d'opposition à la participation à l'étude a été recherchée auprès du patient, ou auprès de la personne de confiance à défaut. 10 Etaient exclus les non résidants martiniquais, ceux ayant une hospitalisation effective de moins de 48 h en réanimationourefusant de participer à l'étude. Le recrutement a débuté à partir de décembre 2013 après avis favorable du comité de protection des personnes (CPP) pour une durée approximative de 6 mois. Nous avions prévu de recenser 100 patients consécutifs pour cette étude. Pour toutes les échéances utilisées durant cette étude, le J0 était la date d'entrée en réanimation et M6 était le sixième mois à partir de la date d'entrée en réanimation. Le critère principal de jugement était la qualité de vie avant l'entrée en réanimation et six mois plus tard, mesurée à l'aide du questionnaire EuroQol 5D 3L(9). Ce questionnaire est validé pour évaluer la qualité de vie chez les personnes âgées(10) et les patients de réanimation(11)et explore 5dimensions de la qualité de vie (mobilité, autonomie, activités de la vie courante, douleurs/gênes, anxiété/dépression). Pour chacune de cescatégories,il existe trois niveaux : « aucune difficulté », « difficultés modérées » et « difficultés importantes », respectivement dénommées classes 1, 2 et 3. L'EuroQol 5Dcomporte aussi une échelle visuelle analogique (EVA) d'autoévaluation de l'état de santé,s'étendant de 0 à 100, avec 0 la plus basse et 100 la meilleure note. Pour la qualité de vie à l'inclusion, le questionnaire était rempli par 2 personnes : le coordonnateur et celui réalisantl'étude. Le questionnaire était rempli le plus précocement 11 possible après interrogatoire du malade, si possible, à défaut auprès de la personne de confiance ou de la famille la plus proche. L'évaluation à 6 moisa été réaliséepar un entretien téléphonique, uniquement par la personne réalisant la recherche. De la même manière,le questionnaire était complétéauprès du patient ou auprès de sa famille connue la plus proche à défaut. Pour analyser les possibles variations de qualité de vie entre J0 et M6, les classes 2 et 3 ont été regroupées(problèmes modérés et importants) et comparées à la classe 1 (aucun problème), pour chaque dimension de la première partie de l'EuroQol. Ce regroupement de classes est validé par le manuel d'utilisation de l'EuroQol. Les EVA de J0 et M6étaient uniquement rempliespar interrogatoire du malade. En cas 'impossibilité elles étaient laissées non renseignées. La mortalité était recensée en tant que critère de jugementsecondaire pendant le séjour en réanimation ainsi qu'aux premier (M1) et sixième mois (M6). La mortalité a été recueillie à l'aide des données enregistrées dans les services hospitaliers du CHU de Martinique. Pour les patients sortis vivants de réanimation, le statut vital était renseigné lors l'appel téléphonique du 6ème mois. 12 Un formulaire préétabli a permis de recueillir les caractéristiques démographiques des patients étudiés, la date, le diagnostic d'entrée en réanimation et le score IGS2 des 24 premières heures. Nous avons aussi recensé la survenue de défaillances d'organes. La défaillance hémodynamique était définie comme l'utilisation de toute catécholamine. La défaillancerespiratoire était définiecomme le recours à la ventilation non invasive (VNI) ou un rapport un PaO2/FiO2<200 mm Hg si ventilation invasive. La défaillancerénale était définie comme une diurèse horaire inférieure à 0,3ml/kg/h pendant 6h, et/ou une créatininémie basale multipliée par trois ou le recours à une épuration extrarénale (conventionnelle ou continue). La défaillance neurologique était définie comme un déficit neurologique focalisé nouveau et/ou un Glasgow Coma Scale strictement inférieur à 8. La défaillance hématologique était définiepar une hémoglobinémieinférieure à 7g/dl,une thrombopénie inférieure à 50G/l, une leucopénie inférieure à 4000/mm3 ou une transfusion de produits sanguins labiles (PSL). La défaillance hépatique était définie par une cytolyse supérieure à 10 fois la normale associée à un tempsde prothrombine (TP) inférieur à 50% du témoin. La défaillance coagulatoire était définie par l'association d'un TP inférieur à 50% de la normale, et d'un temps de céphaline activée (TCA) supérieur à 1,5 fois le témoin. Il était aussi noté le recours à une décision de limitation ou arrêt des thérapeutiques actives (Loi Léonetti 2005) pendant le séjour en réanimation, la date de sortie ou de décès en réanimation. 13 Le recueil des données brutes était réalisésous format papier, sur formulaire pré-rempli, par les 2 personnes réalisant la recherche. Il existait deux formulaires. Le premier était la fiche de recueil d'identité, qui comportait,en plus du numéro d'inclusion, l'adresse postale valide, les numéros de téléphones, les coordonnées du représentant et du médecin traitant, qui permettait de contacter le patient ou son représentant à 6 mois. Le deuxième était la fiche de recueil médicalanonymisée parle numéro d'inclusion, qui comportait en plus des informations médicales les données de l'EuroQol 5D. L'expression des résultats concernant le questionnaire EuroQol et les autres variables quantitatives a été faite sous forme de médianes (valeurs extrêmes) ou de moyennes (écarts types) etde pourcentages et d'intervalles de confiance à 95 %selon le type de donnée. Chaque dimensionde l'EuroQol (mobilité, autonomie, activités courantes, douleurs/gênes et anxiété/dépression)aété expriméeen pourcentages de patients et en effectifs, selon les 3 niveaux possibles d'état de santé (classes1 à 3).Pour chaque dimension de l'EuroQol, les patients ont été regroupés en 2 niveaux d'état de santé : « aucun problème » correspondant à la classe 1, « au moins un problème » correspondant aux classes 2 et 3. Les variables qualitatives ont été décrites en termes d'effectifs, de pourcentages et d'intervalles de confiance à 95 %. Les variables quantitatives ont été décrites en termes d'effectifs, moyennes, écart-types, intervalles de confiance, médianes, et étendues interquartiles. Des analyses en sous groupes ont été réalisées selon le sexe, les catégories d'âge et les différents paramètres médicaux recueillis en réanimation. Les comparaisons des proportions ont été faites à l'aide du test du Chi2 ou du test exact de Fisher, quand les effectifs théoriques étaient inférieurs à 5, selon les conditions d'application. Pour la comparaison des variables quantitatives, nous avons utilisé soit le test de Student, soit l'ANOVA, soit le test de Mann-Whitney, Wilcoxon/Kruskall Wallis. Il n'était pas prévu de réaliser d'analyses intermédiaires. L'étude « DEVENIR DES PERSONNES AGEES APRES UN SEJOUR EN REANIMATION : MORTALITE ET QUALITE DE VIE A 6 MOIS (ETUDE DEPARQ) » a étéprésentée au comité de protection des personnes sud ouest et outre mer III le 28 octobre 2013. Celui-ci adonnéun avis favorable le 18/12/2013 avec le dossier CPP n° 2013/92 et avec le numéro EudraCT 2013-004568-68. Cette étude a étéenregistrée comme étude de soins courants. Le promoteur de l'étude était le CHU de la Martinique, Hôpital Pierre Zobda-Quitman, CS 90632, 97261 Fort-de-France cedex. Le coordonnateur était le docteur Cyrille CHABARTIER, praticien hospitalier dans le service de réanimation. Résultats Nous avons recensé 140 patients consécutifs, dont 99 d'entre eux ont pu être inclus, sur une durée de 287 jours, données reportées dans le diagramme des flux (figure 1). 16 140 patients recensés 40 patients exclus : - 6 non résidants martiniquais - 34 patients exclus pour durée de séjour < 48h 100 patients initialement inclus 1 patient refusant de participer à l'étude à posteriori 99 patients suivi à partir de la réanimation 37 patients décédés en réanimation 62 patients survivants à la réanimation 10 patients décédés entre la sortie de réanimation et M1 52 patients survivants à M1 11 patients décédés entre M1 et M6 41 patients survivants à M6 Figure 1: Diagramme de flux 17 Exclusions Quarante et un patients ont été exclus : 6ne résidaient pas sur le territoire martiniquais, 34 avaient une durée de séjour en réanimation inférieure à 48h et 1 patient a refusé de participer à l'étude à posteriori. Parmi ces patients exclus,16 sont décédés en réanimation et du fait de leur exclusion, aucun survivant n'a été suivi à Nous avons inclus 99 patients. Les caractéristiques des malades sont reportées dans le tableau 1. L'âge moyen était de 74 +/- 6,3 années. Cinquante quatre patients étaient âgés de 65 à 74 ans et 45 patients de 75 ans et plus, pour des âgesextrêmes de 65 à 90 ans. La durée du séjour en réanimation était en moyenne de 12 jours (2 ; 90 jours). Les motifs d'hospitalisation ont été répartis en 3 grandes catégories : médicale, chirurgicale et arrêt cardio-circulatoire. Nous avons inclus 28 patients ayant bénéficié de chirurgie,58 patients pour motif médical et 13 patients dans les suites d'un arrêt cardiaque.L'IGS2 moyen était de 70,8+/- 19,7. Les défaillances sont détaillées dans la partie mortalité. Une limitation de soins en réanimation selon la loi Leonetti 2005a été mise en place pour 39 malades, dont un seul était toujours vivant à 6 mois. 18 Tableau 1 : caractéristiques des patients inclus Caractéristiques Patients Age (années) moyenne 74,2 ± 6,3 Hommes n (%) 61 (61,6%) Répartitions catégories d'âge (ans) n 65-69 28 70-74 26 75-79 27 80-84 12 85 et plus 6 Durée séjour moyenne (j) 11,9 ± 13,4 Répartition des durées de séjours (j) n <7 41 7-13 33 14 et + 25 Score IGS2 70,8 +/- 19,7 Défaillance d'organes % Neurologique 54 Hémodynamique 75 Respiratoire 50 Rénale 63 Hépatique 21 Hématologique 52 Coagulatoire 32 Présence de LATA 39 19 Qualité de vie à J0 Le questionnaire EuroQol n'a pu être complété à J0 pour un patient. La première partie de l'EuroQol (n=98) à J0 est reportée dans la figure 2. Seul un patient était alité avant son hospitalisation en réanimation. On notait que 82,7 % des patients étaient autonomes pour les gestes la vie quotidienne et que 63,3 % des patients n'avaient pas de difficulté (classe 1) pour exercer leurs activités quotidiennes. On notait que 71,4% des patients avaient des douleurs modérées à importantes. Concernant la dimensionanxiété/dépression, 50% des patients appartenaient à la classe 1. Figure 2: Qualité de vie à J0 selon l'EuroQol (n=98) 90 82,7 80 70 63,3 62,3 55,1 60 50 40 37,8 36,7 28,6 30 20,4 20 10 0 50 11,2 1 16,3 6,1 Classe 1 Classe 2 Classe 3 16,3 12,2 20 L'EVA à J0 était recueillie chez 33 patients avec un score moyen à 67,2 +/- 27,2. Qualité de vie à M6 La première partie de l'EuroQol chez les 41 patients survivants est reportée dans figure 3. On observait que la majorité des patients se trouvait dans la classe 2 de l'EuroQol pour les quatre premières dimensions. Dans la dimension anxiété/dépression 51,2 % des patients se situaient en classe 1. Figure 3: Qualité de vie à M6 (n=41) Pourcentage de patients 70 63,4 61 60 51,2 50 40 51,2 48,8 43,9 36,6 41,5 36,6 29,3 30 20 10 14,6 2,4 7,3 4,9 0 Classe 1 Classe 2 Classe 3 L'EVA moyennerecueillie chez 21 patients était à 58+/- 28,5. Variation de qualité de vie entre J0 et M6 Pour faciliter les comparaison de qualité de vie, nous avons pris parti d'associer la classe 2 et 3 de l'EuroQol (défini comme problèmes) comme précédemment expliqué dans « matériels et méthodes ». La répartition des patients déclarant au moins un problème fonctionnel à J0 et M6est reportée dans la figure 4. La mobilité à 6 mois était significativement altérée avec 63,4% des patients classes 2 et 3 contre 37,8% à J0 (p=0,0056). L'autonomie à 6 mois était également plus mauvaiseavec 56,1% de patients en classes 2 et 3 à M6 contre 17,4% à J0 (p<0,001). Nous avons réalisé la même observation pour les activités courantes avec 63,4% des patients en classes 2 et 3 à M6 contre 36,7% à J0 (p=0,0039). Aucune différence significative n'était mise en évidence entre J0 et M6 pour les dimensions anxiété/dépression et douleurs/gênes. 22 Figure 4 : Patients avec problèmes fonctionnels 80 p = 0,934 p = 0,0056 70 63,4 p = 0,0039 p < 0,0001 63,4 56,1 60 p = 0,8957 50 50 40 71,4 70,7 37,8 36,7 30 20 17,4 10 0 Répartition en pourcentage J0 (N=99) M6 (N=41) Ces mêmes différences significatives étaient retrouvé es chez les hommes (Figure 5). 48,8 23 Figure 5 : Problèmes fonctionnels chez les hommes J0-M6 J0 (N=61) p= 0,0024 35 Mobilité Autonomie M6 (N=22) 72,7 13,3 p<0,001 50 28,3 Act. Courantes 77,3 66,7 68,2 Douleurs/Gênes 51,7 50 p<0,001 p= 0,90 p=0,89 Figure 6 : Problèmes fonctionnels chez les femmes J0-M6 J0 (N=38) 42,1 Mobilité Autonomie Act. Courantes M6 (N=19) 23,7 p=0,0036 63,2 50 47,4 p=0,85 79 73,7 Douleurs/Gênes Anxiété/Dépression p=0,45 52,6 47,4 47,4 p=0,66 p=1 Chez les femmes (figure 6), on ne retrouvait pas de différence significative sur les activités courantes et la mobilité. On observait une différence significative concernant l'autonomie, 24 avec 23,7% des patientes ayant au moins un problème fonctionnel à J0 contre 63,2% à M6 (p=0,0036). Nous avons réalisé des analyses en sous groupes selon l'âge (Figures7 et 8). Chez les 65-74 ans, on observait une dégradation significative de l'autonomie entre J0 et M6(14,8% de patients avec un problème fonctionnel à J0 contre 48% à M6 ; p=0,0016). Une altération significative était aussi observéedans les activités courantes entre J0 et M6 (27,8% de patients avec un problème fonctionnel à J0 contre 60 %à M6 ; p=0,0061). Les plus de 75 ans présentaient une diminution significative de mobilité(34,1% des patients avec un problème fonctionnel à J0 contre 75% à M6 ; p=0,0049) et d'autonomie entre J0 et M6 (20,5% des patients avec un problème fonctionnel à J0 contre 68,8% àM6 ; p= 0,0004). Nous avons aussi comparé la variation de qualité de vie entre J0 et M6 chez les seuls survivants. Les résultats sont és sur la figure 9. Il n'était retrouvé aucune différence statistique significative sur les différentes dimensions de l'EuroQol. Unetendance apparaissait concernant les activités courantes et l'autonomie. Il n'était pas réalisé d'analyse en sous groupes sur cette population étant donné le faible effectif. Figure 7 : Problèmes fonctionnels chez les 65-74 ans J0-M6 J0 (N=54) M6 (N=25) Autonomie p=0,32 40,7 Mobilité 14,8 56 p=0,0061 48 27,8 Act. Courantes p=0,0061 60 72,2 76 Douleurs/Gênes 44 51,9 p=0,72 p=0,52 Répartition en pourcentages Figure 8 : Problèmes fonctionnels chez les plus de 75 ans J0-M6 J0 (N=45) Act. Courantes p=0,0049 34,1 Mobilité Autonomie M6 (N=16) 75 20,5 68,8 47,7 68,8 Douleurs/Gênes Anxiété/Dépression 62,5 47,7 56,3 70,5 p<0,001 p=0,15 p=0,56 p=0,56 Il n'existait pas de différence significative pour l'EVA entre J0 et M6 (67,2 +/-27,2 contre 58, 0+/-2 8,5 avec p=0, 545 ). Tableau 2: Mortalité selon défaillances Type de défaillance HEMODYNAMIQUE RE SPIRATOIRE RÉNALE HÉPATIQUE NEUROLOGIQUE COAGULATOIRE HÉMATOLOGIQUE Celle-ci était croissante Taux de mortalité en réanimation 40,0 % 42,0 % 41,3 % 52,4 % 57,4 % 53,1 % 46,2 % de manière significative avec le nombre défaillancesobservées(Tableau 3). Tableau 3: mortalité en réanimation selon le nombre de défaillances observées Nombres de défaillances 1 2 3 4 5 6 7 Taux de mortalité 21,4 % 22,2 % 31,8 % 18,8 % 66,7 % 66,7 % 80 % Test de Fisher avec p=0,0053 de 28 Le nombre de défaillance était significativement plus élevé chez les patients décédés à 4 +/- 1 contre 3 +/- 2(p=0,0002). La défaillance rénale n'était pas un facteur de mortalité plus importante en réanimation. La survenue d'une défaillance neurologique était associée à une mortalité plus importante dans la population générale et dans tous les sous groupes (figure10). Figure 10 : mortalité à M6 selon la défaillance neurologique Absence de défaillance neurologique Défaillance neurologique p<0,001 40 Tout patients 74 p=0,031 48 Hommes p=0,0093 30 Femmes 72 39 65-74 ans 42 75 et plus 75 p=0,0030 68 81 La durée de séjour n'influençait pas la mortalité en réanimation (décédés 12,7+/-14,9 jours, vivants 10,7+/-10,5 jours ; p=0,4538). Enfin nous avons observé l'évolution du statut vital à M1 et M6 selon les résultats de l'EuroQol à J0. Les patients survivants présentaient significativement plus de troubles de mobilité à l'admission que les patients qui venaient à décéder pendant leur séjour en réanimation (45,2% 29 versus 25%, p=0,0472). Cette différence n'était pas retrouvée à 1 mois (p = 0,0682) ni à 6 mois (p = 0,8260). Sur les 6 mois de suivi, il existait une augmentation significative de la mortalité parmi les patients présentant des troubles de la mobilité à J0 (p=0,0142). On retrouvait de la même manière une augmentation significative de la mortalité lors du suivi chez les patients qui présentaient des problèmes de douleurs/gênes à J0 (61% décès en réanimation contre 68% à M6 ; p = 0,0141). Discussion Les pays industrialisés font faceà un vieillissement croissant de la population. De ce fait, les services de réanimation sont de plus en plus confrontés à l'hospitalisation de patients âgés, entrainant desproblèmes éthiques, économiques et médicaux (12). Les données concernant l'impact d'une hospitalisation chez les plus de 65 ans en réanimation restent rares. En effet, la littérature fournit des renseignements quant à la qualité de vie avant (13) ou après (8)(14)(15)(16)(17)la réanimation, mais rares sont les études(18)(19)s'intéressant à la variation de la qualité de vie imputable à l'hospitalisation en réanimation chez les personnes âgées. Nous avons donc réalisé cette étude dans le but de mieux connaître les changements induits sur la qualité de vie de nos patients âgés hospitalisés en réanimation. La qualité de vie mesurée à J0 chez nos patients se trouve être assez semblable à celle relevée dans unepopulation hollandaise (20), qui retrouvait des problèmes pour la mobilitéchez 26 % des 60-69 ans et chez 43% à 60 % des plus de 70 ans. En comparaison, nos résultat ont révélé 30 des problèmes chez 40,7% des 65-74 ans pour la mobilité et 34,1% de problèmes concernant les 75 ans et plus. Seule la dimension anxiété/dépression semble différente puisque seulement 11,8% de la population âgée hollandaise se décrit en classe 2 ou 3 de l'EuroQol contre 50% dans notre étude. La thématique de notre étude est singulière dans le sens que seulsde très rares essaissont recensés dans la littérature. A notre connaissance, aucune étude ne s'intéresse à la qualité de vie mesuréepar l'EuroQol chez des patients âgés, issus de réanimation polyvalente à 6 mois. Une étude italienne (17)retrouve des résultats sur la qualité de vie relativement similairesaux nôtres. le recrutement de cette étude était différent puisque seulement 18% des malades (n=21) hospitalisés dans cette réanimation l'ont été pour raison médicale. L'évaluation se faisait par ailleurs à 1 an. Nous avons trouvé de nombreuses similitudes avecune étude genevoise (21) s'intéressant aux patients de plus de 70 ans, 2 ans après une hospitalisation en réanimation pourchirurgie abdominale. En effet, 56 % des patients présentaient des problèmes de mobilité, 30 % d'autonomie, 68 % d'activités courantes, 50% une dépression ou des symptômes d'anxiété et 72% des douleurs ou des gênes. La principale force de notre étude est d'avoircomparé de manière prospective la qualité de vie avant l'hospitalisation et à 6 mois, dans une population de 65ans ou plus. Nous avons choisi le questionnaire EuroQol 5D 3L car il a été utilisé et validé dans de nombreuses études de qualité de vie en réanimation (14)(15)(19) et semble plus approprié que l'EuroQol 6D qui explore la cognition(14). De plus, ce questionnaire permet une certaine lisibilité en comparaison des autres questionnaires utilisés telsque : The Short Form Health Survey 36 (SF36 = RAND36), le Nottingham Health Profile (NHP),l'échelle d'autonomie de Katzconnu 31 aussi par le nom d'Activities of Daily Living (ADL),ou l'Instrumental Activities of Daily Living (IADL). En effet ces questionnaires donnent une note globale dont la perception est finalement assez abstraite. Notre étude a montréune diminution fonctionnelledans les domaines physiques de l'EuroQoL que sont la mobilité, l'autonomie et les activités courantes. Les deux autresdimensions de l'EuroQol (douleurs/gênes et anxiété/dépression) demeuraient inchangées. Nos résultatsont été retrouvés dans l'étude de Kaarlolaet al.(15) et les revues de littérature(8). Une étude comparant les patients âgés à la population générale, après hospitalisation en réanimation, a montré elle aussi, queles domaines les plus touchésétaient les activités courantes(14) excepté chez les plus de 75 ans. Nous avons montré que nos patients n'ont pas eu de plaintes supplémentaires pour les dimensions psychiques de l'EuroQol (douleurs/gênes et anxiété/dépression). Ceci pourrait être expliqué par une diminution des attentes sur leur statut fonctionnel, et d'une sensation debonne qualité de vie malgré des handicaps devenus importants (8)(22). Les analyses en sous groupesont montré des différences selon le sexe et l'âge. Nous avons mis en évidence que la population féminine n'a pas présenté de variation significative sur l'EuroQol excepté pour l'autonomie. Nous n'avons pas retrouvé de résultat comparable dans la littérature, seuls quelques articles relatent une mortalité accrue chez les hommes âgés en comparaison aux femmes(23). La qualité de vie des survivants àM6 n'était pas différente decelle à J0.Plusieurs éléments pourraient expliquer ce résultat. Le premier est que l'EuroQol n'est pas une bonne échelle de mesure pour discriminer les qualités de vie dites faibles (24). La deuxième raison est que la qualité de vie à 6 mois est proche de celle avant l'hospitalisation. Ceci a déjà été noté 32 (25)(26)(27), mais la plupart du temps pour des intervalles plus importants entre l'hospitalisation et la prise de nouvelles (25).La dernière raison, la plus probable, est que nous n'avons pas pu mettre en avant une différence significative d'altération des dimensions fonctionnelles par manque de puissance. Nous n'avons pas réalisé d'analyses en sous groupes chez ces seuls survivants étant donnél'effectif trop faible. Nous avons choisi une période relativement courte de suivi des patients. Cela permettait une évaluation rapide des données. Cet intervalle de 6 mois a par ailleurs déjà été utilisé dans la littérature(19). Nous avons obtenu un taux de réponse à 6 mois de 100%,bien supérieur à ceux communément retrouvés dans la littérature. Ce taux est atteint quelques fois (28)(29) dans des études de qualité de vie post réanimation pour patients sans limites d'âge,mais exceptionnellement chez des personnes âgées(30)(31). Les études similaires à la nôtre ont des taux de suivi qui restent globalement proche de 80% (8). Le principal biais de notre étude vient du mode de recueil de la qualité de vie.Les données de qualité de vie à 6 mois ont été obtenues après entretien téléphonique. Une consultation post réanimation aurait semblée plus appropriée et précise pour cette évaluation. Elle semble toutefois difficilement réalisable. Par ailleurs, l'entretien téléphonique obtient un bien meilleur taux de réponse(8)(25). Nous avons aussi réalisé la prise de nouvelles auprès de proches, sous estimant ainsifaiblement la qualité de vie des patients(32), surtout celle à J0 par l'effet dépréciatif de l'hospitalisation soudaine en réanimation. Certains auteurs considèrent même que seuls les patients eux-mêmes doivent être interrogés(31)(33). Mais ceux-ciont utilisé des questionnaires avec une part de subjectivité comme le RAND 36(31). Comme dans l'étude de Merlaniet al.(21), nous ne retrouvons pas de différence significativequant àl'échelle visuelle analogique de l'EuroQol. Ces résultats sont à pondérer quant aufaibletauxde réponse. En effet,nous n'avons eu seulement que 21 patients répondeurs 33 sur les 41 survivants. Il existait un problème majeur de compréhension avec une notation est normalement faite à l'écrit et non à l'oral. Ce biais de recueil n'a pas été précédemment décrit. Dans l'ensemble il existait des difficultés de compréhension pour l'ensemble du questionnaire,dues à un obstacle linguistique, les personnes âgées martiniquaises parlant créole et maitrisant parfois mal le français. Cette barrière de langue nous a fait recueillir peut être plus fréquemment la qualité de vie auprès des proches que si il n'y avait pas eu cet obstacle. Enfin, nous n'avons pas précisé si le recueil de l'EuroQol de M6 se faisait auprès du même proche que pour J0. Le choix de suivi de 100 patients a été fait car il nous semblait suffisant pour refléter au mieux la population de patients âgés de réanimation de Fort-de-France. En effet, le service de réanimation a accueilli 200 patients de 65 ans et plus durant l'année 2012. Nos critères d'exclusionn'ont pas induit de sous-estimation ou de surestimation de la mortalité en réanimation,par la non prise en compte despatients décédés dans les 48 premières heures (39% contre 37,4% avec p=0,62, résultats non présentés). Le but de cette exclusion était d'écarter de l'analyse de qualité de vie les patients hospitalisés en réanimation pour simple dialyse en urgence(14/41 patients, résultats non présentés) et autres courts séjours. Cette exclusion pour court séjour est réalisée dans certaines études (16)(34)(35). La mortalité en réanimation à 37,4% étaitsimilaire à celle retrouvée pour les personnes âgées dans des réanimations polyvalentes ou médicales (15)(30)(31)(35)(36). En comparaison, les études en réanimation chirurgicale retrouvaient une mortalité plus faible (14)(15)(18)(37), même si certaines s'en rapprochaient(38). 34 Lesdécès observés dans notre population survenaient tout particulièrement durant le séjour et le premier mois suivant l'hospitalisation en réanimation, comme cela a déjà été décrit(15)(30). La mortalité importante dans notre étudepourrait être expliquée par la gravité initiale de nos patients puisque le score IGS2 à l'entrée était à 70,8 +/- 19,7,avec une mortalité prédite intrahospitalière à 85%. Aucune étude ne rapporte des IGS2 de valeurs aussi importantes, même si Daubinet al.(30)ont rapporté les plus élevées avec une moyenne à 53. Nous n'avons pas utilisé le score SOFA (39)fait à J0, reflétant uniquement la gravité initiale déjà prise en compte par l'IGS2(40), mais préféré utiliser le cumul de toutes les défaillances rencontrées durant le séjour. Notre étude fait ressortir que le nombre de défaillances d'organe est un facteur d'augmentation de la mortalité en réanimation, comme le score SOFA(39). L'existence d'une défaillance rénale en réanimation, selon nos critères, n'était pas un facteur associé à une mortalité plus importante. Cela est très certainement dû à notre définition de la défaillance rénale ne se limitant pas aux stricts besoins d'épuration extra-rénale. En effet, l'augmentation de la mortalité et la dégradation de la qualité de vie a déjà été mis en évidence en cas de défaillance rénale, mais définie comme un recours à l'épuration extra-rénale(19). Cette défaillance était responsable d'une augmentation de la mortalité seulement lorsqu'elle nécessitait une suppléance les 3 premiers jours de réanimation selon certains auteurs(30). Dans notre étude, la défaillance neurologique était responsable d'une mortalité augmentée. Haas et al.(18)ont eux aussi trouvé desrésultats similaires, avec en plus une altération de la qualité de vie. Nous n'avons pas mis en évidence une augmentation de la mortalité due au statut fonctionnel altéré à J0, comme d'autre ont pu le mettre en évidence (16)(32)(41)(42). Ce résultat est très certainement dû au tri des malades réalisé par le réanimateur de garde, pour lequel le statut 35 fonctionnel fait parti des critères d'entrée (43). Ces critères d'admission font que seuls de très rares patients aux statuts fonctionnels très altérés, synonymes d'extrême mauvais pronostics à court et moyen ,sont hospitalisés en réanimation à Fort-De-France. Nous n'avons pas pu réaliser d'analyse sur la qualité de vie en fonction des défaillances, car l'échantillon était trop faible. Les limitations ou arrêts thérapeutiques sont rapportés pour 39,4% de nos malades. Cetaux est supérieur à ceuxde la littérature (44), proches de 10% des malades admis en réanimation, toute catégorie d'âge confondu.Comme décrit précédemment, le taux élevé de décisions de limitations thérapeutiques vient de la gravité de nos malades et de leur âge(45). En effet, Daubinet al.(30), qui rapportent la population la plus grave selon le score IGS2, ont pris des décisions de limitation pour 36 % de leurs malades (n=36). Il existait une similitude avec notre étude, puisque par la suite sur les 36 malades concernés, 32 décédaient. Ces décisions de limitations ont très certainement influencé la durée de séjour en réanimation des patients concernés. En effet, notre étude ne retrouve pas de différence significative de durée de séjour entre patients décédés et survivants. Cette différence de durée entre patients décédés et survivants a déjà été démontrée. Les séjours les plus longs étaient un facteur d'augmentation de la mortalité et de la morbidité (34). 36 Conclusion Notre étude montre une qualité de vie diminuée pour les patients âgés survivants à la réanimation. Ils sont difficilement mis en avant par manque de puissance. Ces résultats sont dans le prolongement des études sur la qualité de vie chez les personnes âgées en réanimation.Une nouvelle étude avec utilisation de plusieurs outils de mesure de qualité de vie serait nécessaire pour confirmer ces résultats. Ces résultats confortent les pratiques actuellement en cours dans le service de réanimation. En effet, même si la mortalité est importante, le service rendu pour les personnes âgées survivantes à la réanimation est correct en terme de qualité de vie. Enfin, il serait aussi intéressant de mesurer des indices de morbidité compétitive comme l'index de Charlson. De même, il serait intéressant d'essayer de confirmer la notion de fragilité (46) et son impact après réanimation (47) à Fort-De-France en terme de qualité de vie et mortalité. 37 1. Nascher.I IL. Geriatrics : the diseases of old age and their treatment, including physiological old age, home and institutional care, and medico-legal relations. Philadelphia : P. Blakiston's son & Co.; 1914. 654 p. 2. United Nations. World Populations Ageing 2013. 2011. 3. INSEE. Pyramide des âges (France métropolitaine) : 2030. 4. INSEE. Projections de la population aux Antilles-Guyane { l'horizon 2030. 2013; 5. Commission des comptes. Rapport de la commission des comptes de la S Boumendil A, Aegerter P, Guidet B, CUB-Rea Network. Treatment intensity and outcome of patients aged 80 and older in intensive care units: a multicenter matchedcohort study. J Am Geriatr Soc. janv 2005;53(1):88‐ 93. 7. Oeyen SG, Vandijck DM, Benoit DD, Annemans L, Decruyenaere JM. Quality of life after intensive care: a systematic review of the literature. Crit Care Med. déc 2010;38(12):2386‐ 400. 8. Knaus WA, Wagner DP, Zimmerman JE, Draper EA. Variations in mortality and length of stay in intensive care units. Ann Intern Med. 15 mai 1993;118(10):753‐ 61. 9. EuroQol--a new facility for the measurement of health-related quality of life. The EuroQol Group. Health Policy Amst Neth. déc 1990;16(3):199‐ 208. 10. Abizanda P, López MD, García VP, Estrella J de D, da Silva González Á, Vilardell NB, et al. Effects of an Oral Nutritional Supplementation Plus Physical Exercise Intervention 38 on the Physical Function, Nutritional Status, and Quality of Life in Frail Institutionalized Older Adults: The ACTIVNES Study. J Am Med Dir Assoc. 2 avr 2015; 11. Honselmann KC, Buthut F, Heuwer B, Karadag S, Sayk F, Kurowski V, et al. Long- term mortality and quality of life in intensive care patients treated for pneumonia and/or sepsis: Predictors of mortality and quality of life in patients with sepsis/pneumonia. J Crit Care. 13 mars 2015; 12. Marik PE. Management of the critically ill geriatric patient. Crit Care Med. sept 2006;34(9 Suppl):S176‐ 82. 13. Inouye SK, Peduzzi PN, Robison JT, Hughes JS, Horwitz RI, Concato J. Importance of functional measures in predicting mortality among older hospitalized patients. JAMA. 15 avr 1998;279(15):1187‐ 93. 14. Soliman IW, de Lange DW, Peelen , Cremer OL, Slooter AJC, Pasma W, et al. Single-center large-cohort study into quality of life in Dutch intensive care unit subgroups, 1 year after admission, using EuroQoL EQ-6D-3L. J Crit Care. févr 2015;30(1):181‐ 6. 15. Kaarlola A, Tallgren M, Pettilä V. Long-term survival, quality of life, and quality- adjusted life-years among critically ill elderly patients. Crit Care Med. août 2006;34(8):2120‐ 6. 16. Walter LC, Brand RJ, Counsell SR, Palmer RM, Landefeld CS, Fortinsky RH, et al. Development and validation of a prognostic index for 1-year mortality in older adults after hospitalization. JAMA J Am Med Assoc. 20 juin 2001;285(23):2987‐ 94. 17. Pavoni V, Gianesello L, Paparella L, Buoninsegni LT, Mori E, Gori G. Outcome and quality of life of elderly critically ill patients: an Italian prospective observational study. Arch Gerontol Geriatr. avr 2012;54(2):e193‐ 8. 18. Haas JS, Teixeira C, Cabral CR, Fleig AH, Freitas AP, Treptow EC, et al. Factors 39 influencing physical functional status in intensive care unit survivors two years after discharge. BMC Anesthesiol. 18 juin 2013;13(1):11. 19. Vaara ST, Pettilä V, Reinikainen M, Kaukonen K-M, Finnish Intensive Care Consortium. Population-based incidence, mortality and quality of life in critically ill patients treated with renal replacement therapy: a nationwide retrospective cohort study in Finnish intensive care units. Crit Care Lond Engl. 2012;16(1):R13. 20. Hoeymans N, van Lindert H, Westert GP. The health status of the Dutch population as assessed by the EQ-6D. Qual Life Res Int J Qual Life Asp Treat Care Rehabil. avr 2005;14(3):655‐ 63. 21. Merlani P, Chenaud C, Mariotti N, Ricou B. Long-term outcome of elderly patients requiring intensive care admission for abdominal pathologies survival and quality of life. Acta Anaesthesiol Scand. mai 2007;51(5):530‐ 7. 22. Udekwu P, Gurkin B, Oller D, Lapio L, Bourbina J. Quality of life and functional level in elderly patients surviving surgical intensive care. J Am Coll Surg. sept 2001;193(3):245‐ 9. 23. Reinikainen M, Niskanen M, Uusaro A, Ruokonen E. Impact of gender on treatment and outcome of ICU patients. Acta Anaesthesiol Scand. août 2005;49(7):984‐ 90. 24. Kaarlola A, Pettilä V, Kekki P. Performance of two measures of general health- related quality of life, the EQ-5D and the RAND-36 among critically ill patients. Intensive Care Med. déc 2004;30(12):2245‐ 52. 25. Hennessy D, Juzwishin K, Yergens D, Noseworthy T, Doig C. Outcomes of elderly survivors of intensive care: a review of the literature. Chest. mai 2005;127(5):1764‐ 74. 26. Kaarlola A, Pettilä V, Kekki P. Quality of life six years after intensive care. Intensive Care Med. août 2003;29(8):1294‐ 9. 40 27. Orwelius L, Fredrikson M, Kristenson M, Walther S, Sjöberg F. Health-related quality of life scores after intensive care are almost equal to those of the normal population: a multicenter observational study. Crit Care Lond Engl. 2013;17(5):R236. 28. Jackson JC, Obremskey W, Bauer R, Greevy R, Cotton BA, Anderson V, et al. Long- term cognitive, emotional, and functional outcomes in trauma intensive care unit survivors without intracranial hemorrhage. J Trauma. janv 2007;62(1):80‐ 8. 29. Saner H, Borner Rodriguez E, Kummer-Bangerter A, Schüppel R, von Planta M. Quality of life in long-term survivors of out-of-hospital cardiac arrest. Resuscitation. avr 2002;53(1):7‐ 13. 30. Daubin C, Chevalier S, Séguin A, Gaillard C, Valette X, Prévost F, et al. Predictors of mortality and short-term physical and cognitive dependence in critically ill persons 75 years and older: a prospective cohort study. Health Qual Life Outcomes. 2011;9:35. 31. Garrouste-Orgeas M, Timsit J-F, Montuclard L, Colvez A, Gattolliat O, Philippart F, et al. Decision-making process, outcome, and 1-year quality of life of octogenarians referred for intensive care unit admission. Intensive Care Med. juill 2006;32(7):1045‐ 51. 32. Hofhuis JGM, Spronk PE, van Stel HF, Schrijvers AJP, Bakker J. Quality of life before intensive care unit admission is a predictor of survival. Crit Care Lond Engl. 2007;11(4):R78. 33. Pettilä V, Kaarlola A, Mäkeläinen A. Health-related quality of life of multiple organ dysfunction patients one year after intensive care. Intensive Care Med. oct 2000;26(10):1473‐ 9. 34. Baldwin MR, Narain WR, Wunsch H, Schluger NW, Cooke JT, Maurer MS, et al. A prognostic model for 6-month mortality in elderly survivors of critical illness. Chest. avr 2013;143(4):910‐ 9. 41 35. Somme D, Maillet J-M, Gisselbrecht M, Novara A, Ract C, Fagon J-Y. Critically ill old and the oldest-old patients in intensive care: short- and long-term outcomes. Intensive Care Med. déc 2003;29(12):2137‐ 43. 36. De Rooij SE, Govers A, Korevaar JC, Abu-Hanna A, Levi M, de Jonge E. Short-term and long-term mortality in very elderly patients admitted to an intensive care unit. Intensive Care Med. juill 2006;32(7):1039‐ 44. 37. Lown DJ, Knott J, Rechnitzer T, Maclsaac C. Predicting short-term and long-term mortality in elderly emergency patients admitted for intensive care. Crit Care Resusc J Australas Acad Crit Care Med. mars 2013;15(1):49‐ 55. 38. Raveau T, Annweiler C, Chudeau N, Gergaud S, Thiery S, Gautier J, et al. Comprehensive geriatric assessment in intensive care unit: a pilot study (pre Seniorea). Gériatrie Psychol Neuropsychiatr Vieil. déc 2013;11(4):389‐ 95. 39. Vincent JL, Moreno R, Takala J, Willatts S, De Mendonça A, Bruining H, et al. The SOFA (Sepsis-related Organ Failure Assessment) score to describe organ dysfunction/failure. On behalf of the Working Group on Sepsis-Related Problems of the European Society of Intensive Care Medicine. Intensive Care Med. juill 1996;22(7):707‐ 10. 40. Le Gall JR, Lemeshow S, Saulnier F. A new Simplified Acute Physiology Score (SAPS II) based on a European/North American multicenter study. JAMA J Am Med Assoc. 22 déc 1993;270(24):2957‐ 63. 41. Boumendil A, Angus DC, Guitonneau A-L, Menn A-M, Ginsburg C, Takun K, et al. Variability of intensive care admission decisions for the very elderly. PloS One. 2012;7(4):e34387. 42. Boumendil A, Maury E, Reinhard I, Luquel L, Offenstadt G, Guidet B. Prognosis of patients aged 80 years and over admitted in medical intensive care unit. Intensive Care 42 Med. avr 2004;30(4):647‐ 54. 43. Azoulay E, Pochard F, Chevret S, Vinsonneau C, Garrouste M, Cohen Y, et al. Compliance with triage to intensive care recommendations. Crit Care Med. nov 2001;29(11):2132‐ 6. 44. Sprung CL, Cohen SL, Sjokvist P, Baras M, Bulow H-H, Hovilehto S, et al. End-of- life practices in European intensive care units: the Ethicus Study. JAMA. 13 août 2003;290(6):790‐ 7. 45. Hamel MB, Lynn J, Teno JM, Covinsky KE, Wu AW, Galanos A, et al. Age-related differences in care preferences, treatment decisions, and clinical outcomes of seriously ill hospitalized adults: lessons from SUPPORT. J Am Geriatr Soc. mai 2000;48(5 Suppl):S176‐ 82. 46. Karunananthan S, Wolfson C, Bergman H, Béland F, Hogan DB. A ary systematic literature review on frailty: overview of the methodology used by the Canadian Initiative on Frailty and Aging. BMC Med Res Methodol. 2009;9:68. 47. Le Maguet P, Roquilly A, Lasocki S, Asehnoune K, Carise E, Saint Martin M, et al. Prevalence and impact of frailty on mortality in elderly ICU patients: a prospective, multicenter, observational study. Intensiv 2014 (5) 674‐ 82. 43 Serment d'Hippocrate Au moment d'être admis { exercer la médecine, en présence des maîtres de cette école et de mes condisciples, je promets et je jure d'être fidèle aux lois de l'honneur et de laprobité qui la régissent. Mon premier souci sera, de rétablir, de préserver ou de promouvoir la santé dans tous les éléments physiques et mentaux, individuels collectifs et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou dignité. Même sous la contrainte, je ne ferai usage de mes connaissances contre les lois de l'humanité. J'informerai les patients de décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer leurs consciences. Je donnerai mes soins { l'indigent et { quiconque me les demandera. Je ne me laisserai influencer ni par la recherche du gain ni par la recherche de la gloire. Admis dans l'intimité des personnes, je tairai les secrets qui me sont confiés. Reçu { l'intérieur des maisons, je respecterai les secrets des foyers. Et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances, sans acharnement. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire { l'accomplissement de ma mission. Que je sois modéré en tout, mais insatiable de mon amour la science. Je n'entreprendrai rien qui ne dépasse mes compétences ; je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide { mes confrères ainsi qu'{ leurs familles dans l'adversité. Que les hommes et mes confrères m'accordent leur estime si je suis fidèle { mes promesses, Que je sois déshonoré et méprisé si j'y manque. 44 Annexes Document information patients 45 46 47 Document d'information pour le représentant 48 49 50 Questionnaire EuroQol Questionnaire sur la santé Version française pour la France (French version for France) 51 Veuillez indiquer, pour chacune des rubriques suivantes, l'affirmation qui décrit le mieux votre état de santé aujourd'hui, en cochant la case appropriée. Meilleurétat de santé imaginable 100 9 0 8 0 7 0 6 0 Votreétat de santé aujourd'hui 5 0 4 0 3 0 2 0 1 0 0 Pire état de santé imaginable 53 Avis du comité de protection des personnes 54 55 Avis du Comité National de l'Informatique et des Libertés 56 Autorisation d'Imprimatur 57 HINAUT RONAN Sujet de la thèse : Devenir des personnes âgées après un séjour en réanimation : mortalité et qualité de vie à 6 mois (étude DEPARQ) Thèse : Médecine – Université des Antilles et de la Guyane Année 2015 MOTS-CLÉS : Personnes âgées, Réanimation, Qualité de vie, Mortalité, EuroQol, Fort-De-France, Facteurs pronostiques, Statut fonctionnel. INTRODUCTION : L'impact de l'hospitalisation en réanimation des personnes âgées n'est pas très bien connu en terme de qualité de vie. METHODE : Etude prospective mono centrique, en soins courants, en réanimation polyvalente au CHU de Fort-de-France. L'objectif était de mesurer la variation de qualité de vie à 6 mois (M6) et la mortalité. Les critères d'inclusion comprenaient : un âge égal ou supérieur à 65ans, hospitalisation dans le service de réanimation pour une durée de plus de 48 heures, patient résidant sur le territoire martiniquais, premier séjour en réanimation sur la période étudiée, affiliation à un régime de sécurité sociale français. La qualité de vie était mesurée par l'EuroQoL 5D-3L à l'entrée en réanimation (J0) et M6. La mortalité était mesurée en réanimation, au 1er et 6ème mois.
47,460
2006STR13146_5
French-Science-Pile
Open Science
Various open science
2,006
Gestion des déplacements de terminaux IPv6 mobiles assistée par géolocalisation
None
French
Spoken
7,117
10,685
Dès lors, il est possible d’utiliser ces informations pour améliorer certains aspects de ces réseaux. Dans le chapitre suivant, nous allons exposer les différentes propositions disponibles dans la littérature sur l’adjonction d’informations de géolocalisation dans les réseaux de communication. 90 Chapitre 6 Usage de la géolocalisation dans les réseaux de communication 6.1 Introduction Le développement des systèmes de géolocalisation a donné naissance à une nouvelle tendance dans le monde des réseaux de communication, qui consiste à tirer parti de la connaissance des positions des différents équipements de façon à améliorer certains aspects du réseau. On peut notamment relever que la famille des protocoles de routage multipoints s’est enrichie d’une nouvelle technique, le geocasting [51, 73, 92], qui s’appuie sur des informations de géolocalisation. Cette méthode est en quelque sorte une variante des protocoles de routage multicast traditionnels et permet de transmettre simultanément des paquets de données à plusieurs équipements situés dans une même zone géographique. Dans les réseaux Ad Hoc, les positions des équipements peuvent aussi être employées pour faciliter le routage des paquets de données entre les terminaux mobiles [32, 37, 48, 50]. D’autres propositions suggèrent d’utiliser les informations de géolocalisation afin d’améliorer les performances des handovers au sein d’une même technologie sans fil mais également entre différentes technologies sans fil. Dans le présent chapitre, nous allons essentiellement nous intéresser aux handovers assistés par des informations de géolocalisation, en présentant les différentes solutions disponibles dans la littérature. 91 6.2 La géolocalisation dans la gestion des handovers Parmi les diverses propositions d’optimisation des handovers basées sur la position des équipements, ce sont majoritairement les réseaux cellulaires ainsi que le protocole Mobile IP qui ont bénéficié de la plus grande attention de la part de la communauté scientifique. En outre, d’autres techniques s’intéressent à la gestion des handovers intertechnologies. Ces derniers mettent en jeu des terminaux qui peuvent utiliser différentes technologies de communication. Au final, on ne recense que peu de solutions s’intéressant plus particulièrement à la mobilité de terminaux Wi-Fi IPv6. 6.2.1 Améliorations des réseaux cellulaires Les premières solutions qui tirent parti d’informations de géolocalisation dans la gestion de la mobilité ont été proposées pour les réseaux cellulaires correspondant aux réseaux GSM, GPRS et UMTS. On peut notamment citer le projet CELLO (Cellular Network Optimization based on Mobile Location) [20, 38, 52, 53] qui occupe une place prépondérante dans ce domaine. Dans l’architecture CELLO, deux nouveaux équipements font leur apparition sur le réseau : le MGIS (Mobile network Geographic Information System) et le LS (Location Server). Le LS permet de surveiller les déplacements des terminaux mobiles en enregistrant leurs positions actuelles. Le MGIS dispose de la carte des cellules, du nombre de terminaux mobiles attachés à chaque cellule, de la charge courante de chaque cellule, etc. Grâce aux informations fournies par ces deux équipements, les terminaux mobiles peuvent s’associer aux stations de bases (l’équivalent des points d’accès 802.11 pour les réseaux cellulaires) les mieux disposées à les accueillir. De plus, lors de l’utilisation de services à débit élevé, il est important que le réseau puisse prédire la station de base cible d’un handover en vue d’y réserver les ressources nécessaires. Cela peut également être réalisé à l’aide des informations dont disposent le MGIS et le LS. Les données provenant du MGIS peuvent être utilisées pour identifier les cellules voisines de celle où se trouve actuellement le terminal mobile. En analysant les données du MGIS pour ces cellules, il est possible de détecter les stations de base avec lesquelles les chances de succès du handover sont faibles (e.g. charge trop importante sur la station de base). En combinant ces informations avec celles qui sont contenues par le LS au sujet de la direction et de la vitesse d’un terminal, il est donc possible d’estimer la future station de base de ce terminal. En outre, l’utilisation du LS permet une gestion plus fine du déclenchement des handovers. Les auteurs proposent par exemple de retarder la procédure de handover lorsqu’un terminal mobile se déplace entre deux cellules adjacentes de façon à éviter des basculements incessants entre les deux stations de bases (effet ping-pong). 92 Néanmoins, ces propositions ne constituent au final qu’une présentation des éventuels bénéfices que peuvent apporter les informations de géolocalisation dans la gestion des handovers. Les méthodes suggérées ne sont que brièvement décrites, ce qui rend leur appréciation et leur évaluation difficiles. En revanche, d’autres solutions plus détaillées ont été proposées. Le seuil d’intensité du signal à partir duquel les handovers sont déclenchés peut être constamment adapté en fonction de la position des terminaux [105]. Cela permet notamment de réduire considérablement le nombre de handovers inutiles. Dans [41], le nombre et la durée des réservations de ressources nécessaires au maintien de la qualité de services lors de déplacements sont limités par l’utilisation de la direction et de la vitesse des terminaux. 6.2.2 Améliorations du protocole Mobile IP Le protocole Mobile IP a lui aussi bénéficié de nombreuses propositions d’optimisation basées sur des informations de géolocalisation. Ces solutions se concentrent essentiellement sur des améliorations du modèle hiérarchique [95] et sur l’identification des futurs routeurs d’accès des terminaux mobiles. Dans cette section, nous allons considérer, comme cela est généralement le cas lorsqu’on aborde des optimisations de niveau 3, que les routeurs d’accès IP et les points d’accès sans fil (802.11 ou autres) ne forment qu’une seule et même entité. Perfectionnement du modèle hiérarchique Une première possibilité d’utilisation des localisations des équipements de niveau 3 propose de réduire le nombre de paquets perdus lors de déplacements intra-domaine [33, 34, 35]. L’idée principale consiste à réutiliser une architecture hiérarchique dont les positions géographiques des routeurs d’accès du domaine sont connues. Chaque routeur d’accès dispose d’une table de correspondance entre les positions des autres routeurs et leurs adresses IP. Ces tables maintenues à jour à l’aide de messages spécifiques qui permettent aux différents routeurs d’accès de communiquer leurs positions. Lorsqu’un paquet de données arrive au niveau du routeur racine de l’arbre hiérarchique, il vérifie dans sa table de correspondance sur quelles branches de l’arbre il doit envoyer une copie de ce paquet afin d’atteindre à la fois le routeur d’accès courant du terminal mais également ses voisins géographiques. De même, chaque routeur se situant sur le trajet d’un de ces paquets va vérifier dans sa table sur quelles interfaces il doit transmettre une nouvelle copie du paquet. On se retrouve donc en quelque sorte avec un routage de type geocasting depuis le routeur racine (voir la figure 6.1). Lorsque des 93 paquets dupliqués arrivent sur les routeurs d’accès voisins, ces derniers les enregistrent pendant une certaine durée en vue de les transmettre au terminal après un éventuel handover. Un terminal mobile sera donc en mesure de recevoir son trafic dès son arrivée sur un nouveau lien sans avoir prévenu son agent mère (ou l’agent mère local dans le cas hiérarchique). Bien que cette technique limite effectivement le nombre de paquets perdus, la procédure de détection des nouveaux liens reste identique à celle décrite dans le protocole Mobile IP. En outre, cette solution peut augmenter significativement le trafic global du domaine, même lorsque les terminaux mobiles n’effectuent pas de procédures de handovers. F IG. 6.1 – Duplication des paquets en fonction des positions géographiques des routeurs d’accès Les auteurs de [33, 34, 35] proposent également d’optimiser les handovers interdomaine du modèle hiérarchique à l’aide d’informations de géolocalisation. Lorsqu’un terminal arrive dans un nouveau domaine, il s’enregistre auprès de son nouvel agent mère local (i.e. le MAP dans le cas du protocole HMIPv6 [95]). Ce dernier doit théoriquement transmettre cet enregistrement à l’agent mère global (situé dans le réseau mère), afin de l’informer du déplacement du terminal dans un nouveau domaine. Or, cette étape peut s’avérer relativement longue lorsque l’agent mère local se trouve loin de l’agent mère global, ayant pour conséquence l’augmentation du temps de déconnexion de niveau 3. Pour palier ce problème, il est possible d’utiliser des informations de géolocalisation de façon à ce que l’agent mère local puisse calculer la distance géographique qui le sépare de l’agent mère global ainsi que celle qui le sépare du précédent agent mère local du terminal. Suivant la distance la plus courte, il enverra l’enregistrement soit à l’agent mère global, soit à l’ancien agent mère local. Cette deuxième possibilité 94 introduit une nouvelle redirection dans l’acheminement des paquets de données : les paquets provenant de l’agent mère global seront interceptés par l’ancien agent mère local qui les retransmettra à son tour au nouvel agent mère local (voir la figure 6.2). F IG. 6.2 – Enregistrement auprès du précédent agent mère local On peut cependant relever que la distance géographique entre deux équipements n’est pas forcément équivalente à la distance réseau (nombre de sauts ou délai d’acheminement des paquets) entre ces deux entités. Considérons par exemple que l’actuel agent mère local soit géographiquement proche de l’ancien agent mère local mais que le délai entre ces deux entités soit relativement important. Considérons également que l’actuel agent mère local et que l’agent mère global sont géographiquement éloignés alors que le délai entre ces deux entité est court. Dans le cas présent, il vaut mieux envoyer l’enregistrement (BU) à l’agent mère global et non à l’ancien agent mère local. Cette optimisation concernant les handovers inter-domaine n’est donc pas satisfaisante. Identification du prochain routeur d’accès De nombreuses techniques relativement similaires ont également été proposées dans le but de déterminer, grâce aux informations de géolocalisation, les futurs routeurs d’accès des terminaux mobiles. Cette anticipation permet notamment la transmission d’une copie des paquets auprès des prochains routeurs d’accès afin de limiter le nombre de paquets perdus. Dans certaines solutions, elle permet également aux terminaux mobiles de réaliser le handover de niveau 3 avant celui de niveau 2. 95 Une première proposition allant dans ce sens repose sur la position géographique des routeurs d’accès et des terminaux mobiles [14]. Chaque routeur d’accès possède également une table de correspondance locale entre les adresses IP et les positions géographiques des routeurs voisins. Périodiquement, chaque terminal mobile envoie sa position courante à son routeur d’accès. A la réception d’une nouvelle position d’un terminal, le routeur d’accès mesure la distance qui le sépare de ce terminal. Lorsque cette distance dépasse un certain seuil prédéfini, il conclut qu’un handover est imminent et recherche dans sa table de correspondance le routeur d’accès le plus proche géographiquement du terminal. Le routeur d’accès sélectionné sera identifié comme étant le futur routeur d’accès du terminal (NAR). Dès lors, le routeur d’accès courant initie la transmission vers le NAR d’une copie des paquets destinés au terminal. Il lui indique également d’augmenter la fréquence d’émission des messages RA pendant la procédure de handover afin de permettre au terminal de détecter plus rapidement son changement de sous-réseau. Dès la transmission de la mise à jour de la nouvelle adresse temporaire vers l’agent mère (BU), le NAR répond immédiatement avec un acquittement de manière à autoriser l’utilisation temporaire de la nouvelle adresse. Cela permet notamment de transmettre au terminal les éventuels paquets mis en attente sur le NAR. Cette technique améliore le temps de latence engendré par un handover de niveau 3 sans augmentation notoire de la charge du réseau. La précédente méthode reste toutefois fortement dépendante du mécanisme de détection des nouveaux liens défini par le protocole Mobile IP. Même avec une fréquence d’émission des RA élevée, cette procédure peut toujours augmenter le temps total de déconnexion engendré par un handover. Certaines propositions suggèrent alors de réaliser le handover de niveau 3 avant celui de niveau 2. Cela revient à pré-enregistrer la future adresse temporaire auprès de l’agent mère alors que le terminal est toujours associé à son routeur d’accès courant (voir la figure 6.3). Ces enregistrements anticipés déclenchent la transmission simultanée des paquets de données vers la localisation actuelle et future du terminal à la manière de [56]. Toutes les méthodes présentées ci-dessous diffèrent donc essentiellement au niveau de la méthode d’anticipation du prochain routeur d’accès des terminaux. Dans [12], les auteurs utilisent des capteurs sans fil permettant de détecter les mouvements des terminaux mobiles. Ces capteurs sont systématiquement placés au bord des zones de couverture des routeurs d’accès de manière à détecter les mouvements entre deux sous-réseaux spécifiques. Lorsqu’un capteur détecte qu’un terminal s’apprête à se déplacer vers un autre sous-réseau, le routeur d’accès courant du terminal lui transmet les paramètres de son futur lien IPv6. Par conséquent, le terminal peut pré-configurer sa future adresse temporaire et la pré-enregistrer auprès de son agent mère. A la réception d’une requête d’enregistrement préliminaire, l’agent mère transmet le trafic destiné au terminal vers ses deux adresses simultanément. 96 F IG. 6.3 – Schéma général d’enregistrement préliminaire d’adresse En se basant sur la trajectoire des terminaux mobiles il est possible d’approfondir la solution précédente en réalisant plusieurs pré-enregistrements simultanément [24]. Les trajectoires sont ici obtenues à partir de positions GPS ou déduites de l’environnement dans lequel le terminal évolue (e.g. déplacement sur une autoroute). Cette solution réutilise également une architecture hiérarchique et permet d’éviter la transmission de copies de paquets de données. Dès son arrivée dans un nouveau domaine, un terminal envoie à l’agent mère local une demande anticipée de pré-enregistrement pour différentes adresses qui correspondent aux sous-réseaux du domaine qu’il estime traverser. A la réception d’une telle requête, l’agent mère local sauvegarde les futures configurations du terminal. Lorsque le terminal est plus proche géographiquement du prochain routeur d’accès que du courant, il prévient l’agent mère local qu’il va changer de sousréseau et lui demande de transmettre les paquets de données vers l’une des adresses préalablement enregistrées. Suivant le délai estimé pour joindre l’agent mère local, le terminal retarde le déclenchement du handover de niveau 2 pour être certain de recevoir les derniers paquets envoyés vers sa précédente adresse. Dès la fin du handover de niveau 2, le terminal peut donc directement communiquer et se voit retransmettre les éventuels paquets mis en attente sur son nouveau routeur d’accès alors qu’il était en procédure de handover. Une autre solution appelée SMIP [40] propose une approche légèrement différente et s’appuie à la fois sur les protocoles FMIPv6 et HMIPv6 que nous avons déjà présentés dans la section 2.6. Dans cette solution, une entité réseau appelée le DE (Decision Engine) est dédiée à la supervision des déplacements des terminaux mobiles. Ces der97 niers surveillent constamment la qualité du lien radio comme cela est suggéré dans le protocole FMIPv6. Lorsque la qualité du signal descend sous un seuil prédéfini, le terminal en déduit qu’il s’approche du bord de la zone de couverture de son point d’accès courant. A cette occasion, il envoie périodiquement au DE les intensités de signaux qu’il reçoit depuis les routeurs d’accès voisins. Grâce à ces informations, le DE peut calculer la position géographique du terminal (méthode de trilatération utilisant les positions des routeurs d’accès comme points références). Dès l’obtention de 3 positions, le DE peut identifier le prochain routeur d’accès du terminal et estimer son modèle de déplacement parmi 3 modèles prédéfinis : aléatoire, stationnaire et linéaire (voir la figure 6.4). Suivant le modèle de déplacement retenu, le DE indique au terminal et aux routeurs d’accès concernés les différentes stratégies et informations à utiliser pour améliorer le handover imminent. F IG. 6.4 – Modèle de déplacements pris en compte dans SMIP Le cas linéaire correspond au cas classique, dans lequel il n’y a pas d’ambiguïté. Le DE indique au terminal son prochain routeur et demande à l’agent mère local de dupliquer le trafic destiné au terminal vers le routeur d’accès courant et vers le futur routeur d’accès. Dans le cas stationnaire, le DE demande au terminal d’effectuer plusieurs associations de manière à utiliser plusieurs adresses temporaires simultanément. Chaque adresse correspond à un sous-réseau vers lequel le terminal est susceptible de se déplacer. Dans le cas aléatoire, le routeur d’accès courant et le futur routeur d’accès sont positionnés en mode anticipation, c’est-à-dire qu’ils doivent maintenir leurs associations avec le terminal de telle sorte que ce dernier puisse se déplacer librement entre les deux sous-réseaux sans aucune reconfiguration. Au final, nous pouvons relever que dans le 98 protocole SMIP, toute l’intelligence réside dans le réseau et plus particulièrement dans le DE qui prend toutes les décisions relatives au handover. 6.2.3 Handovers inter-technologie Les informations de géolocalisation peuvent également être utilisées pour assister les handovers inter-technologie. Ces derniers correspondent à des changements de technologie d’accès alors que le terminal mobile est en cours de communication. Ils sont généralement référencés par les termes handovers verticaux par opposition aux handovers horizontaux qui correspondent aux déplacements à travers des points d’accès utilisant la même technologie sans fil. Le cas majoritairement abordé dans la littérature introduit la cohabitation d’un réseau cellulaire (GSM, GPRS ou UMTS) avec des réseaux Wi-Fi. Dans [55], les auteurs définissent trois scénarii possibles : déplacement du réseau cellulaire vers un réseau WiFi (e.g. utilisateur arrivant à son bureau), déplacement d’un réseau Wi-Fi vers le réseau cellulaire (e.g. utilisateur quittant son bureau) et déplacement passant à travers un réseau Wi-Fi (i.e. combinaison des deux premiers scénarii). En vue d’éviter les recherches inutiles de réseaux Wi-Fi (scénarii 1 et 3) coûteuses en consommation d’énergie, et pour maximiser le temps de connexion aux réseaux Wi-Fi (scénario 2), les auteurs proposent un algorithme à base de logique floue tirant parti de divers paramètres, dont la position et la vitesse des terminaux mobiles. Néanmoins, leurs premiers résultats semblent indiquer que dans les cas simples (trajectoire rectiligne), les informations de géolocalisation n’apportent aucune valeur ajoutée par rapport aux autres métriques (e.g. intensité du signal) utilisées dans l’algorithme de logique floue. Une autre approche de la gestion des handovers inter-technologie s’appuie sur les trajectoires des terminaux mobiles [79]. Une entité réseau enregistre les déplacements des terminaux mobiles afin de déterminer s’ils sont proches d’une zone couverte par un réseau Wi-Fi. En se basant sur la trajectoire, le type de trafic et la cartographie des points d’accès, cette entité détermine si un handover du réseau cellulaire vers le réseau Wi-Fi est judicieux. Par contre, aucun mécanisme n’est mis en place pour optimiser l’association au réseau Wi-Fi. Cependant, les auteurs suggèrent tout de même de transmettre les paquets données en utilisant les deux technologies, le temps de terminer la procédure de handover. 99 6.3 Conclusion Dans ce chapitre, nous avons présenté les différentes utilisations d’informations de géolocalisation dans les réseaux de communication disponibles dans la littérature. Nous nous sommes principalement intéressés à la gestion des handovers dans les réseaux sans fil. Il ressort de cette étude que les solutions envisagées sont rarement détaillées et que c’est majoritairement le protocole Mobile IP qui a bénéficié des algorithmes les plus intéressants. Il est notamment possible de déterminer à l’avance le prochain routeur d’accès d’un terminal en fonction de sa position et/ou trajectoire, afin de réaliser diverses opérations qui permettent d’optimiser le handover de niveau 3. Toutefois, on constate que peu de propositions tiennent compte des handovers de niveau 2 dans les réseaux Wi-Fi. On relèvera tout de même la solution présentée dans [102] qui, en plus des informations de topologie classiques (adjacence entre les points d’accès), mentionne également l’intérêt d’utiliser des informations de géolocalisation. Dans cette approche, un serveur dédié possède tous les paramètres des entités réseaux dont il a la charge et envoie ces informations aux terminaux mobiles qui déterminent seuls leurs prochains points d’accès, en fonction de leurs positions et directions. Néanmoins, ni la sélection des prochains points d’accès, ni la procédure du handover de niveau 2 ne sont détaillées, ce qui rend difficile l’appréciation de cette solution. De plus, il est peu probable que les différents opérateurs réseaux transmettent de la sorte les positions physiques de leurs équipements. A la vue de ces différentes propositions, il nous est apparu évident qu’on pouvait encore pousser plus loin l’utilisation d’informations de géolocalisation dans la gestion des handovers au sein des réseaux de nouvelle génération. En fonction des positions des terminaux mobiles et des points d’accès environnants, le réseau devrait être capable de sélectionner à l’avance le prochain point d’accès des terminaux afin de leur transmettre les informations nécessaires à la réalisation d’un handover rapide (aussi bien de niveau 2 que de niveau 3). Comme le mentionne [83], l’utilisation d’informations de géolocalisation devrait également permettre de limiter le nombre de procédures de handover en choisissant en priorité les points d’accès offrant une vaste zone de couverture. Dans les chapitres suivants, nous allons exposer nos différentes contributions allant dans ce sens. 100 Contributions à l’optimisation des handovers assistée par géolocalisation dans les réseaux Wi-Fi IPv6 101 Chapitre 7 Le protocole SHAPE 7.1 Introduction A la suite de notre étude préliminaire portant sur les optimisations des handovers de niveau 2 dans les réseaux Wi-Fi, nous avons débuté la spécification et l’implémentation d’un nouveau protocole appelé SHAPE (Seamless Handovers Assisted by Position Estimation [65]). Ce protocole constitue notre première contribution au sein des propositions utilisant des informations de géolocalisation afin d’améliorer les handovers. Contrairement à la majorité des solutions présentées dans le chapitre précédent, le protocole SHAPE vise à réduire le temps de latence des handovers, aussi bien de niveau 2 dans les réseaux Wi-Fi que de niveau 3 dans les réseaux IPv6. Comme son nom le laisse supposer, ce protocole s’appuie sur un système de géolocalisation pour déterminer les futurs points d’accès des terminaux en fonction de leurs positions. Lors de la phase de validation du protocole SHAPE, nous nous sommes basés sur le système de géolocalisation GPS, en raison de sa facilité d’utilisation, mais tout autre système de géolocalisation disposant de caractéristiques similaires (cf. chapitre 5) pourrait être amené à le remplacer sans générer de modifications notoires dans le protocole. Les prochaines sections présenteront dans un premier temps les différents mécanismes d’optimisation apportés par le protocole SHAPE. Nous détaillerons ensuite son implémentation qui se base sur le nouveau démon Mobile IPv6 pour GNU/Linux [74]. A la suite de cette implémentation, nous avons réalisé une première évaluation de performances à travers deux scénarii de tests. Cette analyse préliminaire a donné lieu à une évaluation plus complète [59] dans laquelle nous avons effectué un comparatif entre le protocole SHAPE et le protocole FMIPv6 qui bénéficie d’une implémentation libre 103 [45]. A titre de référence, ce comparatif intègre la procédure de handover standard telle qu’elle est décrite dans la norme IEEE 802.11 et dans le protocole MIPv6. 7.2 Description du protocole L’idée principale du protocole SHAPE repose sur l’utilisation de la position des terminaux mobiles comme métrique pour améliorer les handovers de niveau 2 et de niveau 3 se produisant dans les réseaux Wi-Fi et IPv6. Ce protocole se focalise essentiellement sur la réduction du temps nécessaire à la phase de découverte du niveau 2 et au temps de détection du nouveau lien IPv6 du niveau 3. Comme nous l’avons vu dans la section 2.5, ce sont principalement les mécanismes mis en place lors de ces phases qui sont responsables des délais engendrés par une procédure de handover. Notre solution se base sur le protocole MIPv6 et réutilise une architecture hiérarchique afin de minimiser le temps d’enregistrement des adresses temporaires auprès de l’agent mère. Nous pouvons également relever que les handovers sont ici entièrement contrôlés par le réseau. 7.2.1 Le contrôleur de mobilité Le protocole SHAPE introduit une nouvelle entité réseau appelée le contrôleur de mobilité. Situé à l’intérieur d’un domaine réseau, il est destiné à gérer les déplacements des terminaux mobiles au sein de son domaine. Plus précisément, c’est le contrôleur de mobilité qui va sélectionner les futurs points d’accès des terminaux mobiles en fonction des distances géographiques entre les équipements. Le contrôleur de mobilité maintient une base de données contenant les différents paramètres des équipements fixes du domaine. Les informations enregistrées concernent principalement les points d’accès Wi-Fi et les routeurs d’accès IPv6. Plus précisément, la base de données contient l’adresse MAC, le SSID, le canal radio et la position géographique (en termes de latitude et longitude) de chaque point d’accès du domaine. En outre, le contrôleur dispose de la liste d’adjacence entre tous les points d’accès. Notons qu’un identifiant unique est attribué à chaque point d’accès. Le tableau 7.1 donne un exemple des paramètres de niveau 2 contenus dans la base de données. 104 ID 1 2 3... Adresse MAC A:B:C:D:E:F A:B:C:F:E:D A:B:C:D:F:E... SSID TEST1 TEST2 TEST3... Canal radio 1 6 11... Position (x1,y1) (x2,y2) (x3,y3)... Portée radio 50 40 60... Adjacence {2} {1; 3} {2}... TAB. 7.1 – Paramètres de niveau 2 enregistrés par le contrôleur de mobilité En plus des informations de niveau 2, la base de données contient également le préfixe IPv6 et l’adresse lien local du routeur par défaut de tous les sous-réseaux IPv6 dans lesquels les points d’accès sont situés. Le tableau 7.2 propose un exemple des informations de niveau 3 contenues dans la base de données. Dans la version actuelle du protocole, toutes ces informations sont configurées statiquement sur le contrôleur et sont gérées par l’entité administrative en charge du réseau. ID 1 2 3... Adresse lien local f080::X f080::Y f080::Z... Préfixe IPv6 2001:db8:0:f02f::/64 2001:db8:0:f000::/64 2001:db8:0:f010 ::/64... Points d’accès sur le lien {2} {1; 3} {6; 8; 10}... TAB. 7.2 – Paramètres de niveau 3 enregistrés par le contrôleur de mobilité 7.2.2 Mise à jour du contrôleur Lorsqu’un terminal se déplace, il envoie au contrôleur de mobilité diverses informations en vue d’obtenir éventuellement les paramètres de son prochain point d’accès. Dès l’obtention de ses nouvelles coordonnées (e.g. toutes les secondes avec le système GPS), le terminal s’assure dans un premier temps qu’il s’est déplacé, en mesurant la distance qui le sépare de son ancienne position. Cette vérification permet notamment de réduire le nombre de messages envoyés au contrôleur de mobilité. Pour calculer la distance entre deux points géographiques (exprimés sous formes de coordonnées géodésiques), nous utilisons la formule d’Haversine [94]. Cette formule fait l’hypothèse d’une terre sphérique mais reste particulièrement bien adaptée pour des calculs numériques même à de courtes distances. Notons respectivement (lat1, long1 ) et (lat2, long2 ) les coordonnées de l’ancienne et de la nouvelle position d’un terminal mobile. Notons également ∆lat la différence entre les latitudes et ∆long la différence entre les longitudes. Tous les angles sont exprimés en 105 radian et G correspond au rayon de la terre avec G = 6371km. La distance d entre deux points peut donc être calculée par la formule : μ ¶ d haversin = haversin(∆lat ) + cos(lat1 ) G × cos(lat2 ) × haversin(∆long ) où la fonction d’Haversine est donnée par : μ ¶ δ haversin(δ) = sin 2 2 Soit h = haversin(d/G). Nous pouvons alors déterminer la distance d en appliquant simplement l’inverse de la fonction d’Haversine ou en utilisant la fonction arcsin (inverse de la fonction sinus) : √ d = G × haversin−1 (h) = 2G × arcsin( h) Lorsque d est supérieure à 1 mètre, on considère que le terminal mobile s’est déplacé. Dans ce cas, il doit envoyer au contrôleur de mobilité un message LU (Location Update). Ce message contient la position courante du terminal et l’identité de son point d’accès courant. A la réception d’un message LU, le contrôleur de mobilité initie l’algorithme de sélection du prochain point d’accès. 7.2.3 Sélection des prochains points d’accès Dès réception d’un message LU par le contrôleur de mobilité, la première étape consiste à calculer la distance séparant le terminal émetteur de son point d’accès courant. Nous avons défini R comme étant la distance maximale entre un terminal et son point d’accès courant pendant laquelle le terminal mobile est encore bien couvert. En se basant sur les mesures effectuées dans [69], nous avons positionné R à 50% de la portée maximale du point d’accès courant du terminal. Le paramètre R va donc varier en fonction des capacités des points d’accès. Lorsque la distance entre un terminal et son point d’accès est strictement supérieure à R, cela signifie que le terminal s’approche du bord de la zone de couverture de son 106 point d’accès. Dès lors, le contrôleur de mobilité conclut qu’un handover est imminent et détermine le prochain point d’accès du terminal. Parmi les points d’accès des cellules voisines (identifiés grâce à la liste d’adjacence contenue dans la base de données), le contrôleur de mobilité va sélectionner celui dont la position géographique est la plus proche de celle du terminal. Lorsque le point d’accès sélectionné et le point d’accès courant du terminal sont différents, le contrôleur de mobilité envoie un message HI (Handover Initiate) au terminal. Ce message contient l’adresse MAC, le SSID et le canal radio du point d’accès sélectionné par le contrôleur. Quand le futur point d’accès est situé dans un nouveau sous-réseau IPv6, le message HI inclut également le préfixe IPv6 et l’adresse lien local du routeur par défaut qui correspondent à ce nouveau lien. La sélection des prochains points d’accès est illustrée sur la figure 7.1. F IG. 7.1 – Sélection des futurs points d’accès par le contrôleur de mobilité 7.2.4 Gestion des Handovers Lorsqu’un terminal mobile reçoit un message HI, il déclenche une procédure de handover et essaie de s’associer au point d’accès indiqué par le contrôleur de mobilité. Pour ce faire, il utilise les informations contenues dans le message HI de façon à envoyer une Probe Request directement sur le bon canal radio et vers le bon SSID. Dès la réception d’une Probe Response provenant du point d’accès visé (identifié grâce à son adresse MAC), le terminal passe immédiatement à la phase d’authentification. La phase de découverte est donc uniquement constituée d’un échange Probe Request / Probe Response avec le point d’accès sélectionné par le contrôleur de mobilité, ce qui réduit fortement 107 le temps de latence engendré par cette étape. Les paramètres MinChannelTime et MaxChannelTime ne sont désormais utilisés que dans les cas d’erreurs. A la fin du handover de niveau 2, le terminal vérifie si le message HI contient également des paramètres de niveau 3 indiquant qu’il s’est déplacé dans un nouveau sousréseau IPv6. La détection des nouveaux liens IPv6 n’est donc plus basée sur la réception des messages RA. Dès la fin de l’association de niveau 2, le terminal peut utiliser le préfixe IPv6 et l’adresse du routeur par défaut inclus dans le message HI pour réaliser son autoconfiguration d’adresse sans état. Couplé au mécanisme ODAD que nous avons présenté dans la section 2.5.2, cette optimisation permet d’envoyer directement un BU à l’agent mère local et réduit par conséquent le temps de latence du handover de niveau 3. La figure 7.2 illustre la procédure de handover lors de l’utilisation du protocole SHAPE. F IG. 7.2 – Procédure de handover dans le protocole SHAPE 7.2.5 Cas d’erreurs Plusieurs cas d’erreurs peuvent survenir lors de l’utilisation du protocole SHAPE. Dans un premier temps, les positions calculées par le système de géolocalisation contiennent une certaine marge d’erreur (e.g. 10 mètres dans le système GPS) qui peut avoir une influence lors de la sélection d’un nouveau point d’accès. En effet, le contrôleur de mobilité peut sélectionner un point d’accès qui n’est pas à portée radio du terminal ou peut déclencher une procédure de handover alors que le terminal mobile n’a pas réellement franchi le seuil R. Lorsque le terminal n’a pas reçu de Probe Response du point 108 d’accès ciblé après MinChannelTime, il considère qu’il n’est pas à portée radio de ce point d’accès. S’il a reçu d’autres réponses pendant cette attente, il tente de s’associer aux points d’accès correspondants. Dans le cas où il n’aurait reçu aucune réponse sur ce canal particulier, il passe au canal suivant et débute une procédure standard de handover. A la fin d’une telle association, les éventuels paramètres de niveau 3 disponibles dans le message HI sont devenus inutiles étant donné que le terminal ne s’est pas associé au point d’accès prévu. Dès lors, le handover de niveau 3 qui peut suivre sera réalisé à l’aide des mécanismes de base du protocole MIPv6. D’autre part, il est possible qu’un terminal ne soit plus en mesure de connaître sa position (e.g. le système de géolocalisation ne fonctionne plus) ou que le contrôleur de mobilité ne soit plus joignable (e.g. le contrôleur est tombé en panne). Dans les deux cas, le terminal mobile ne recevra jamais de messages HI. Il restera associé donc à son point d’accès courant jusqu’à ce qu’il sorte de la cellule radio. A ce moment, il effectuera une procédure de handover standard. 7.3 Implémentation Dans l’optique d’évaluer cette première proposition, nous l’avons implémentée dans un système GNU/Linux. Pour ce faire, nous nous sommes basés sur la nouvelle implémentation du protocole MIPv6 pour les système d’exploitation GNU/Linux (MIPL-2 [74]) et sur le pilote libre de cartes sans fil MADWiFi [21]. Concernant le calcul des positions géographiques des terminaux, nous avons utilisé dans cette évaluation le système de géolocalisation GPS, en raison de sa relative facilité d’utilisation et du faible coût des récepteurs GPS dans le commerce. Nous rappelons que le système GPS dispose d’une précision de 10 mètres et que la fréquence de mise à jour des coordonnées est de 1 seconde (cf. chapitre 5). Afin d’intégrer nos optimisations de niveau 2, nous avons dû légèrement modifier le pilote de périphérique MADWiFi. Ce pilote est principalement utilisé pour les périphériques basés sur des puces Atheros qui fonctionnent sans firmware. MADWiFi est un pilote entièrement logiciel (absence de firmware), ce qui permet de remanier son comportement. Seule une partie du pilote est fournie sous forme binaire de façon à respecter les règles de normalisation des fréquences radio. Par défaut, le pilote MADWiFi réinitialise le périphérique sans fil à chaque modification d’un paramètre de configuration (SSID, canal radio, etc). Etant donné que chaque réinitialisation engendre un certain délai, nous avons dans un premier temps modifié cette procédure pour que seul le changement de canal radio réinitialise le périphérique. A la réception d’un message HI, le terminal configure d’abord le nouveau SSID, puis le nouveau canal radio ce qui réinitia109 lise le périphérique sans fil. Notre deuxième modification du pilote porte sur la phase de découverte. Durant cette étape, le terminal mobile envoie des trames Probe Request sur un certain canal et vers un SSID particulier. Dès réception d’une réponse provenant du point d’accès visé, nous avons indiqué au pilote de passer à la phase d’authentification. Les paramètres MinChannelTime et MaxChannelTime ne seront dès lors utilisés que dans les cas d’erreurs. On peut d’ailleurs noter que par défaut dans le pilote MADWiFi, M inChannelT ime = M axChannelT ime = 200 millisecondes. Le protocole SHAPE nécessite un comportement particulier des terminaux mobiles au niveau 3. Nous avons donc également dû apporter quelques modifications à l’implémentation MIPL-2. Cette dernière s’intègre au niveau noyau du système GNU/Linux mais comporte un démon dans l’espace utilisateur. Cette séparation permet de modifier rapidement des parties spécifiques du code. Dans un premier temps, nous avons ajouté une socket de communication de manière à traiter les échanges entre le terminal et le contrôleur de mobilité (échanges effectués en UDP). Par la suite, nous avons modifié le démon pour qu’il réagisse de la façon suivante. A la réception d’un message HI, le démon MIPL-2 envoie les nouveaux paramètres de niveau 2 au pilote MADWiFi à l’aide d’une socket RTNetlink. Ce type de socket permet l’échange de paramètres entre l’espace utilisateur et l’espace noyau d’un système GNU/Linux. Puis, les nouveaux paramètres de niveau 2 sont configurés sur le périphérique sans fil à l’aide de routines IOCTL (fonctions permettant de contrôler des périphériques) ce qui déclenche le handover. Grâce à l’utilisation d’un déclencheur de niveau 2 (Link Up [100]), le démon MIPL-2 peut initier la procédure de handover de niveau 3 dès la fin du handover de niveau 2. Les paramètres de niveau 3 du nouveau lien se présentent sous la forme d’un RA inclus dans le message HI. Ce RA est identique à ceux qui sont envoyés par les routeurs d’accès du nouveau lien IPv6. Dès la fin du handover de niveau 2, le démon MIPL-2 analyse ce RA et agit comme s’il l’avait reçu de manière standard. Le démon MIPL-2 va donc configurer une nouvelle adresse IPv6 temporaire et envoyer un BU à l’ mère local. Pour émuler la procédure ODAD, nous avons désactivé la réalisation du DAD sur les nouvelles adresses temporaires. Enfin, nous avons développé un petit logiciel qui permet de gérer les coordonnées du terminal mobile. Ce logiciel récupère périodiquement (i.e. toutes les secondes dans le cas présent) les coordonnées fournies par le récepteur GPS et les enregistre. Dès l’obtention de nouvelles coordonnées, il calcule la distance que le terminal a effectué depuis sa dernière position et envoie, le cas échéant, un message LU au contrôleur de mobilité. La figure 7.3 représente les diverses interactions entre les différentes parties mises en jeu par le protocole SHAPE. 110 F IG. 7.3 – Schéma général d’un handover réalisé à l’aide du protocole SHAPE au sein du système d’exploitation 7.4 Evaluation des performances L’évaluation de notre protocole s’est effectuée en deux parties. Dans un premier temps, nous avons mesuré les performances du protocole SHAPE en termes de temps de latence au niveau 2 et au niveau 3 lorsque le terminal effectue un handover. L’impact des handovers sur des flux temps réel émulés a également été analysé lors de cette étude. Notre évaluation s’est poursuivie par un comparatif entre les performances des protocoles SHAPE, MIPv6 et FMIPv6. Dans cette seconde analyse, nous avons notamment mesuré la perception des handovers au niveau des utilisateurs lorsqu’ils utilisent des applications temps réel classiques. 7.4.1 Evaluation préliminaire La plate-forme de tests mise en place pour l’évaluation préliminaire est illustrée sur la figure 7.4. Elle est composée de trois points d’accès 802.11b provenant du commerce, de deux routeurs d’accès, d’un agent mère, d’un contrôleur de mobilité, d’un correspondant (CN) et d’un terminal mobile. Les délais pour atteindre l’agent mère ou le contrôleur de mobilité sont négligeables (inférieurs à 5 millisecondes), émulant ainsi une architecture hiérarchique. 111 Etant donné que le système GPS ne fonctionne pas à l’intérieur des bâtiments, nous avons effectué au préalable diverses traces GPS en extérieur. Cette phase consiste à enregistrer les trames envoyées par le récepteur GPS dans des fichiers afin de pouvoir émuler les déplacements du terminal à l’intérieur d’un bâtiment. Cette étape nous a permis de simplifier grandement le déroulement des tests et la prise de mesures. Nous avons ensuite créé la base de données du contrôleur de mobilité, en rentrant statiquement les différents paramètres des équipements de la plate-forme de tests. Par rapport à nos traces GPS, nous avons notamment positionné les coordonnées (latitude et longitude) des points d’accès de sorte qu’ils soient espacés de 50 mètres chacun. F IG. 7.4 – Plate-forme de tests pour l’évaluation préliminaire du protocole SHAPE Scénarii de tests Pour cette première évaluation, deux scénarii de tests ont été établis. Dans le scénario 1, le terminal mobile se déplace de manière rectiligne du point d’accès 1 vers le point d’accès 3 puis revient à son point de départ. Par rapport à la topologie de notre plate-forme de tests, le terminal va donc effectuer quatre handovers de niveau 2 et deux handovers de niveau 3. Afin d’évaluer l’impact de notre protocole sur les flux applicatifs lors des handovers, nous avons ajouté dans le deuxième scénario un flux audio utilisant le codec G.711 [44]. Ce flux, créé par le générateur de trafic MGEN [86], est envoyé au terminal mobile depuis le correspondant. Le scénario 2 reste sinon identique au scénario 1. 112 Premiers résultats Les résultats présentés dans le tableau 7.3 et les figures 7.5, 7.6 et 7.7 ont été obtenus en utilisant deux analyseurs réseau (i.e. sniffeurs) et le logiciel Ethereal [22]. La figure 7.5 présente les temps de latence des handovers de niveau 2. Nous avons rejoué 20 fois le premier scénario, ce qui nous a permis d’obtenir un total de 80 mesures concernant les handovers de niveau 2. Il apparaît que notre protocole permet de réaliser des handovers de niveau 2 en 8,926 millisecondes en moyenne. Ce temps est fortement réduit par rapport à la méthode standard dans laquelle un handover de niveau 2 peut prendre entre 58,74 et 396,76 millisecondes d’après [58]. Ce gain de temps s’explique principalement par l’optimisation de la phase de découverte. En effet, dans notre solution, le terminal mobile ne sonde que le canal précisé dans le message HI, et passe à la phase d’authentification dès réception d’une réponse du point d’accès sélectionné par le contrôleur de mobilité. Par conséquent, les paramètres MinChannelTime et MaxChannelTime ne sont plus utilisés. En outre, la distance entre les canaux radio utilisés par les points d’accès n’a plus d’influence sur les temps de latence lorsque la sélection du prochain point d’accès est satisfaisante. Les fluctuations observées dans les mesures sont principalement dues au trafic des cellules voisines. D’ailleurs, l’écart-type important figurant dans la table 7.3 s’explique par la mesure 48 dans laquelle le handover s’est réalisé en 48,153 millisecondes, en raison des interférences provoquées par les cellules voisines lors de cette mesure. Si on ne considère pas cette mesure, l’écart-type est proche de 1 milliseconde. Concernant l’intervalle de confiance calculé, il y a 95% de chance que la moyenne soit située dans ’intervalle [7, 905; 9, 947]. Association Authentification Probe 14 Moyenne (8.926) 12 Temps (ms) 10 8 6 4 2 77 73 69 65 61 57 53 49 45 41 37 33 29 25 21 17 13 5 9 1 0 Numéro de session F IG. 7.5 – Temps de latence engendrés par les handovers de niveau 2 113 Niveau Nombre de Handovers 80 40 2 3 Temps moyen de déconnexion (ms) 8,926 27,334 Ecart-type (ms) 4,660 4,734 Intervalle de Confiance (ms) ∆ = 1,021 ∆ = 1,467 TAB. 7.3 – Résultats obtenus pour le scenario 1 Lorsque le terminal mobile se déplace entre les points d’accès 2 et 3, le handover de niveau 2 est suivi d’un handover de niveau 3. Lors de l’évaluation des performances au niveau 3, nous nous sommes concentrés sur 3 événements : la fin du handover de niveau 2, l’émission du BU, et la réception du BACK qui conclut le handover de niveau 3. La figure 7.6 représente les différents temps pour lesquels ces événement se produisent. Les résultats présentés sur la ligne 2 du tableau 7.3 font également référence aux handovers de niveau 3. Comme nous pouvons le voir, le protocole SHAPE permet de réaliser des handovers de niveau 3 rapides avec un temps de latence moyen de 27,334 millisecondes. Bien que la détection du nouveau lien soit automatique (grâce aux informations contenues dans les messages HI) et que nous émulions la procédure ODAD, le démon MIPL-2 met encore 14,035 millisecondes en moyenne pour réaliser les différentes opérations nécessaires à l’envoi d’un BU (analyse des informations de niveau 3 du message HI, création de la nouvelle adresse temporaire, mise à jour du tunnel, etc). Le message BACK arrive approximativement 4,724 millisecondes après la transmission du BU, ce qui reflète bien une architecture hiérarchique.
35,712
767a351dbecc23cd2a80da42a1961d0b_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
593
1,082
SMILE Système mul+-capteurs offrant une auto-calibra+on dynamique pour l’analyse des émissions de GES en temps réel Hassen AZIZA / Pascal TARANTO IM2NP / CGGG - Aix-Marseille Université Comité PREMAT 05.07.23 Sommaire § Porteur du projet § Contexte scientifique § La technologie proposée & Propriété intellectuelle § Piste marché envisagée § Budget 01 Poc SMILE Porteur de projet ÉLECTRONIQUE capteur connecté AZIZA Hassen MCF HDR Aix-Marseille Université – IM2NP Collecte de données de pollution Électronique, Systèmes embraqués MECANIQUE Co-porteurs - TARANTO Pascal (PR, CGGG) - LINARES Jean-Marc (PR, ISM) Référent valorisation : SATT Sud-Est Financements acquis - Région DARII-Sud – 96 K€ - CNRS MITI - 30 K€ - CNRS Contrat doctoral 80 PRIME – 130 K€ Démarrage thèse : 01/10/2023 boîtier connecté Prototypage mécanique SCIENCES HUMAINES plateforme de traitement Analyse - diffusion de données 02 Contexte scientifique Micro-capteurs de GES (gaz à effet de serre) Réduction des émissions de gaz à effet de serre (GES) ü Mesure des émissions de GES ü Solutions opérationnelles pour réduire les émissions ü Suivi et quantification de la réduction des émissions Spécifications du capteur ü L’exactitude ü La portabilité (déploiement) ü Le coût à AMBITION : Développement d’un outil d’évaluation de l’impact des solutions opérationnelles de réduction des GES (solutions basées sur la transition énergétique, l’efficacité énergétique, le transport durable, le consommation responsable, etc.) Données liées aux GES Capteurs personnels (micro - capteurs) • Peu onéreux mais peu précis , non interconnectés Stations de mesure scientifiques ( ATMO SUD) • teurs précis, onéreux, non mobiles Concept SMILE : « Projeter en tout point de l’espace urbain la précision de mesure des stations fixes, grâce à un réseau de capteurs mobiles et interconnectés » 02 Contexte scientifique SMILE : une technologie innovante pour un fort impact social Objet connecté GES Application mobile Plateforme collaborative Données de la qualité air Données de calibration Objet connecté (CO2, CH4, N2O et O3) TRL 6 Plateforme d’analyse et d’échange « Breakthrough » : étalonnage dynamique d’une flottille de capteurs objet connecté Station fixe https://opendata.atmosud.org Détec&on du passage de l’objet connecté à proximité d’une sta&on fixe Etalonnage dynamique en temps réel Implication : les cap teurs resten t au sein des objets connectés & aucune opération d’étalonnage en laboratoire n’est nécessaire 03 La technologie proposée & Propriété intellectuelle Développement de l’objet connecté Existant : carte de base Phase 1 Carte spécifique aux GES Carte Capteur GES (CO2, CH4, N2O et O3) Carte électronique GES Base Phase 2 Etalonnage capteur - PI en cours* Analyseur T200 propre à SMILE Passerelle SMILE SMILE BOX TRL 6 *SATT Sud-Est 03 La technologie proposée & Propriété intellectuelle Déploiement des capteurs de GES Utilisation d’une flotte de véhicules (VEOLIA & GEODIS) Auto calibration systématique à partir d’instruments de référence Auto calibration : Points de retour des véhicules centres de gestion des flottes Points de passage « stratégiques » des véhicules Maillage du territoire à partir d’une flotte de véhicules Plateforme d’agrégation des données Cartographies 3D de GES* 3D *Thèse de doctorat (J. Acteurs étatiques, collectivités : Poli6ques d’aménagement Citoyen : Résultat de leur engagement [Long Terme] 05 Budget Etapes Livrables (résultats attendus) Etape 1 (prémat.) Capteur de GES Etape 2 (prémat.) Autocal. dynamique des capteurs Oui. Cacango Déploiement des capteurs Oui prématuration Etape 3 Besoin en prestations de service (externes) Oui. HDSN Besoins en consommable Matériel électronique Appareils référence Besoin Durée en personne l 1 PHD 0,5 (acquis – CNRS PRIME) de 1 postDoc 0,5 (Software) Réseau de 1 post- 0,5 Aide déploiement stations fixe propre Doc au projet pour (HSS) (Veolia/GEODIS) l’auto calibration Merci de votre attention.
24,997
21/dumas.ccsd.cnrs.fr-dumas-01408686-document.txt_5
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,731
2,750
Début du cours avec un rappel, voir si certains peuvent encore dessiner la forme des textes au tableau sans regarder la bagagem. Distribuer une recette de cuisine en une langue très éloigné dont même l'orthographe est différente. Leur demander de quel genre de texte il s'agit puis de retrouver les différents éléments caractéristiques de la recette (ingrédients, image etc). Puis avec ces éléments faire le dessin de la forme de la recette. Distribuer une recette de cuisine en langue romane. Par petit groupe repérer les différents éléments, essayer de deviner de quel type de plat il s'agit avec l'image. 1. Dans la partie des informations, essayer de deviner à quoi correspondent les informations grâce aux indices de nombres, aux élèves qui ont déjà vu ce genre d'information dans des recettes et à la transparence de la langue si possible ex : ◦ les étoiles pour donner le niveau de difficulté comme dans certains jeux vidéo, ◦ le temps (40min) dans une recette ça peut être le temps de quoi? De préparation? De cuisson? ◦ Un chiffre avec écrit un mot qui ressemble un peu à personne ça doit être le nombre de personne qu'on peut nourrir avec cette recette 2. Dans la partie « ingrédients », essayer de deviner quels types d'ingrédients il y a grâce aux quantités et faire une première liste avec les hypothèses, ex : ◦ 1 quelque chose d'entier ◦ 200g de quelque chose de solide ou en poudre ◦ 1 cuillère (à soupe ou à café?) de quelque chose ◦ 20ml de quelque chose de liquide Puis la comparer avec celles des autres groupes pour arriver à une liste commune la plus précise possible. 3. Dans la partie « préparation », il faut d'abord repérer les ingrédients grâce à la partie « ingrédients ». Ensuite, demander à quel temps sont conjugués normalement les verbes dans une recette, puis essayer de repérer les verbes à l'impératif ou infinitif dans la recette. Après, souligner les mots transparents ou les formes qu'ils 179 reconnaissent. Enfin à partir de ses éléments tenter de déduire : par exemple, quand il y a beaucoup d'ingrédients à la suite, ça veut souvent dire qu'il faut les « mélanger » ou « ajouter ». 4. Finalement avec toutes ses informations, deviner de quelle recette il s'agit et leur sortir le plat en question du sac pour un petit goûter. Séance J : la lettre Avant le cours, trouver ou faire une lettre adressée aux parents de l'auteur en langue romane. Commencer le cours par un rappel sur comment est composé une recette, demander à un des élèves de dessiner au tableau le dessin de la forme. Donner un exemplaire de la lettre à chaque élève. Leur demander individuellement de quel genre de texte il s'agit puis de retrouver les différents éléments caractéristiques de la lettre (date, destinataire, signature etc). Faire une première correction, et avec ces éléments faire le dessin de la forme de la lettre. En classe entière, regarder le destinataire et deviner qui c'est grâce à la transparence des mots (les mots « maman », « papa » et « famille » sont souvent transparent d'une langue romane à l'autre). Demander ce qu'on peut dire dans une lettre à sa famille (donner des nouvelles etc). De manière individuel, chercher des indices qui vont dans ce sens dans la lettre et à comprendre le maximum d'information sur le contenu, puis partager ses trouvailles avec un petit groupe. Enfin comparer ce que chaque groupe à trouver pour faire une synthèse. Après cette synthèse, l'intervenant peut préciser un peu le contenu, s'il le veut, mais doit toujours souligner l'importance de ce que les élèves ont réussi à faire. Séance K : Synthèse et lettre aux parents Cette synthèse s'organise sur le même modèle que la première : rendre les copies et distribuer les questionnaires. Les questionnaires comporterons les questions habituelles « Você gostou da actividade X? Sim/Nao, porque » en s'aidant de la bagagem. Puis la question « Quando você esta lendo um texto, conhecer o gênero de texto ajuda você a entender melhor o conteudo? Porque? », L'intervenant pourra éventuellement rajouter d'autres questions qui lui semble pertinentes. Une fois qu'ils ont fini, leur demandé de rendre le questionnaire. Cette fois, par contre, la réflexion sera d'abord personnelle. Les élèves qui ont fini devront d'abord reprendre la bagagem et la réorganiser comme il le souhaite tant que c'est cohérent. Ils peuvent, par exemple, mettre ensemble les textes vus en classe avec les dessins des formes, mais en séparant chaque genre, ou encore trier en fonction du déroulement du cours. Ils doivent aussi compléter leur fiche de présentation avec les nouvelles langues vus en cours. Après cela, les élèves vont devoir écrire une lettre à leurs parents. Ils doivent respecter la forme du texte et parler de ce qu'ils ont fait en cours. Ils peuvent parler des modalités de ce projet (heures, durée etc), de l'intervenant, des activités, des langues et genres de texte vu en cours, de ce qu'ils ont aimé ou pas etc, mais le plus important est de parler de ce qu'ils ont appris. Il est utile pour l'analyse dans le cadre d'une recherche de récupérer les lettres par photographie ou en revenant pour les leurs rendre plus tard Et après Après cette synthèse, il est tout à fait envisageable de revenir une dernière fois avec des jeux, des chansons ou autres. Aussi, il peut être intéressant de revenir plusieurs semaines après la fin de l'expérience pour voir quel impact les séquences ont pu avoir sur les élèves sur le court/moyen-terme. Cette annexe est document donnant des pistes, il devra donc être complété, et pourra être réutilisé et modifié à volonté à des fins pédagogiques ou de recherche. Remerciements3 Sommaire5 Introduction7 Partie 1 : Cadre Théorique11 CHAPITRE 1. L'IC EN LANGUES12 1.Comprendre grâce à la proximité entre les langues13 2.Nous ne sommes pas une table rase : le répertoire langagier14 3.Le droit à l'inférence dans le cadre d'une compréhension globale16 CHAPITRE 2. L'IC AU SEIN DES APPROCHES PLURIELLES19 1.L'éveil aux langues et le développement de savoir-être20 2.La didactique intégrée et les acquis antérieurs 21 3. L'approche inter culturelle et la place de la culture en IC22 CHAPITRE 3. LES RETOMBÉES POSSIBLES DE L'IC24 1.Retombées sur la ou les langues des appre nants : approche comparatiste, didactique du détour et stratégies24 2.De l'IC à l'apprentissage complet d'une langue26 CHAPITRE 4. TRAVAILLER LA LECTURE À PARTIR DES GENRES DE TEXTE ET DU PARATEXTE28 1.Lire, comprendre et interpréter28 2.L'utilité du genre de texte et du paratexte pour la lecture30 CHAPITRE 5. LES CAPACITÉS D'UN PUBLIC PRÉADOLESCENT33 1.Les théories du développement de l'enfant33 2.La théorie des intelligences multiples et ses implications pédagogiques34 Les 7 intelligences dans la perspective de l'IC et de la lecture34 Le profil de chacun35 CHAPITRE 6. UNE CONCEPTION BASÉE SUR DES MATÉRIAUX DIDACTIQUES ADAPTÉS37 1.EOLE, texte et fonctionnement de la langue37 IC et genre de textes : l'exemple de « Tri de textes plurilingues »38 2.Elodil : pour une éducation plurilingue et pluriethnique40 3.Les activités ludiques et multimédias de l'Union Latine40 4.Euro-mania : IC et disciplines scolaires42 Partie 2 - Dans la pratique : contexte et déroulement général45 CHAPITRE 7. CONTEXTE46 1.Du Brésil à ritiba46 2.L'école CAIC et son contexte social47 CHAPITRE 8. DESCRIPTION DU PROJET PÉDAGOGIQUE51 1.Modalités51 2.Déroulé52 Sequência 1 : Abertura52 Aula 1 : Compreensão de um artigo de jornal52 Aula 2 : Os empréstimos53 182 Aula 3 : Introdução na IC em línguas latinas54 Aula 4 : A bagagem linguística 155 Aula 5 : A bagagem linguística 256 Sequência 2 : Tipo de texto56 Aula 6 : A forma e o tipo de texto57 Aula 7 : O "tipo de texto" : o que é?57 1⁄2 Aula 8 : síntese58 Sequência 3 : Paratexto58 1⁄2 Aula 9 : Analisar a imagem59 Aula 10 : Título, imagem e capa59 Aula 11 : Detectivos bibliotecários60 Sequência 4 : Fábulas60 Aula 12 : Entender uma fábula em espanhol61 Aula 13 : Escrever uma fábula61 Sequência 5 : Síntese62 Aula 14 : Bagagem linguística e carta62 Aula 15 : Bagagem linguística e receita63 3. modifications depuis le projet proposé base63 Partie 3 - Analyse67 CHAPITRE 9. ANALYSE SÉQUENCE PAR SÉQUENCE68 1.Séquence 1 : ouverture69 Première rencontre69 Séance n°1 : comprendre un article de journal70 Séance n°2 : les emprunts70 Séance n°3 : Introduction à l'IC en langues romanes74 Séance n°4 et 5 : répertoire langagier74 Analyse générale de la séquence d'ouverture75 2.Séquence 2 : les genres de texte76 Objectif 1 : Montrer l'intérêt d'avoir la forme d'un texte pour le comprendre76 Objectif 2 : Définir la notion de genre de texte77 Objectif 3 : Apprendre à reconnaître les genres de texte à travers leurs formes et les éléments qui les composent78 Bilan de la séquence 279 3.Séquence 3 : le paratexte79 Séance n°9 : analyser une image80 Séance n°10 : titre, image et couverture80 Séance n°11 : Détectives bibliothécaires82 Ce que dit la synthèse83 4.Séquence 4 : la fable84 Objectif 1 : Définir le genre de la fable85 Objectif 2 : Utiliser ce genre pour comprendre un texte court en langue proche86 Objectif 3 : Comprendre le fonctionnement de la fable et le réinvestir87 5.Séquence 5 : Synthèse et lettres aux familles87 CHAPITRE 10. LES OBJECTIFS GÉNÉRAUX SONT-ILS ATTEINTS?90 1.Objectif principal : Améliorer les compétences en compréhension écrite90 2.Objectif secondaire 1 : Donner confiance quant à leur capacité à aborder et comprendre d'autres langues90 3.Objectif secondaire 2 : Ouvrir l'esprit sur le monde91 4.Objectif secondaire 3 : Donner envie de découvrir et de lire93 5.Bilan de l'analyse93 Conclusion96 100 102 aire103 Sigles et abréviations utilisés105 Table des illustrations106 Table des annexes107 Table des matières180 MOTS-CLÉS : intercompréhension, lecture, préadolescent, genres de texte, paratexte, didactique des langues, Brésil RÉ É Dans le cadre du double diplôme Grenoble-Curitiba, spécialité DILIPEM, nous avons mis sur pied un projet pédagogique dans une école brésilienne de Curitiba auprès de préadolescents de 11 à 13 ans. En utilisant l'intercompréhension en langue comme base didactique de ce projet, nous avons proposé de travailler la lecture à travers l'utilisation des genres de texte et paratexte. Le mémoire est divisé en trois parties : le cadre théorique, la description et l'analyse du projet. Nous avons d'abord expliqué les notions, approches et matériaux didactiques existants utilisés pour mettre au point la conception. Puis nous avons décrit le contexte et les modalités de notre intervention.
28,055
34bfce099f33fda98b513c9a3213b6c2_1
French-Science-Pile
Open Science
Various open science
2,009
Un argument de poids. Le chiffre dans le gouvernement de la justice. Revue française d’administration publique, 2008, 125, pp.111-121. &#x27E8;hal-00384028&#x27E9;
None
French
Spoken
6,056
9,058
Un argument de poids Le chiffre dans le « gouvernement » de la justice Antoine Vauchez Marie Curie Fellow Centre Robert Schuman – Institut Universitaire Européen [email protected] Abstract : Si le droit forme le langage commun et le terrain d’entente naturel des différents acteurs des politiques publiques de la justice, il partage désormais sa prééminence avec le chiffre qui fait figure de passage obligé des débats sur la réforme judiciaire. La conversion collective aux vertus du chiffre et des techniques quantitatives ne doit certainement pas laisser croire à une forme de pacification progressive des débats en la matière. Elle est d’abord l’occasion d’une recomposition des savoirs et des pouvoirs qui s’opère au détriment des formes d’auto-régulation sociale qui caractérisait traditionnellement les mondes judiciaires. 33% des Français ; 2,13% du budget de l’Etat ; 4,70 euros par habitant ; 44ème rang mondial ; 240 jours ; 77,9 %... Ces nombres, prix, pourcentages, moyennes, ratios, et classements, aussi différents soient-ils, ont un point commun. Ils appartiennent à la liste désormais longue de ces chiffres phares qui forment le lot incontournable des diagnostics de la justice française. Ensemble, ils mesurent tour à tour l’indice de confiance des Français, la part de la justice dans le budget de l’Etat, le montant de l’aide juridictionnelle par habitant, le classement de l’attractivité économique française, le nombre de jours pour traiter un vol avec violence, ou le taux de réponse pénale. Ces objectivations chiffrées de l’état de l’institution judiciaire occupent désormais presque invariablement les premiers rôles dans les discours académiques, politiques, bureaucratiques, juridiques sur la réforme. Ils entendent pointer tout à la fois la « crise de confiance des française d’administration publique Français dans l’institution judiciaire », son « manque de moyens », la nécessité de développer les systèmes d’assurance juridique privé, la « faible attractivité du système juridique français », la lenteur des procédures judiciaires, la judiciarisation voire « l’américanisation » de la société française, ou encore l’efficacité de la lutte contre l’insécurité. Longtemps objet de connaissances essentiellement impressionnistes et éparses, évoquées le plus souvent sur le mode lettré des « gens de justice », la justice s’est ainsi transformée au cours des quinze dernières années en enjeu de chiffre. Palmarès, sondages, cartes, logiciels comptables ou batteries d’indicateurs forment l’outillage minimal pour qui entend sérieusement envisager les paramètres de l’équation « réforme de la justice ». Traditionnellement considérés comme impropres à caractériser la fonction hautement symbolique de l’institution judiciaire, les termes de stock, flux, performance, rendement, coût ou efficacité en constituent aujourd’hui le champ lexical presque ordinaire. Difficile en somme d’imaginer aujourd’hui discours en la matière qui fasse l’économie du chiffre. Certains d’entre eux ont acquis une valeur symbolique forte au cours des dernières années. Ainsi de la part de la justice dans le budget de l’Etat qui fait figure de point de repère de l’importance accordée par les gouvernements successifs aux questions judiciaires ; du taux d’augmentation du contentieux civil qui permet de suivre ce qui est perçu comme « l’explosion du contentieux » ; ou encore, du « taux de réponse pénale » qui est devenu « l’indicateur phare » de la capacité du gouvernement à lutter contre l’insécurité1 etc... Elevé de la sorte au rang de levier privilégié pour la décision et le pilotage de la machine judiciaire, le chiffre apparaît fréquemment aussi comme un objectif en soi des politiques publiques de justice. La réforme en cours de la carte judiciaire constitue un terrain d’observation presque trop évident tant le souci rationalisateur y est ancien2. Désormais en effet, le chiffre n’est plus ni un outil ponctuel des réformes, ni un dispositif cantonné au seul domaine de l’organisation judiciaire. La LOLF, on le sait, le place au cœur même du « pilotage » presque quotidien de la justice touchant désormais l’activité judiciaire elle-même par le biais des objectifs fixés en matière de réponse pénale, de rendement ou de « frais de justice ». Cette saillance du chiffre n’est d’ailleurs pas propre à l’administration. C’est en son nom qu’on se mobilise aujourd’hui dans les milieux juridiques. Le montant de l’unité de valeur de l’aide juridictionnelle 1 Voir par exemple, Nathalie Guibert, « La réponse pénale, nouvel indicateur phare », Le Monde, 6 décembre 2006. 2 Jacques Commaille, Territoires de justice. Une sociologie politique de la carte judiciaire, PUF, 2000. Paru dans la Revue française d’administration publique, 2008 2 est ainsi devenu depuis dix ans la principale pomme de discorde entre la Chancellerie (qui en fixe le niveau) et les organisations professionnelles des avocats. De même, il aura fallu le classement médiocre de la France par le rapport de la Banque mondiale sur l’attractivité économique des systèmes juridiques pour provoquer la mobilisation inédite des différents représentants de la « culture juridique française » dans une sorte de consortium promouvant, sous l’égide du Conseil d’Etat, les vertus des systèmes de civil law. L’ambition de cet article n’est ni d’évaluer la qualité de ces chiffres, ni de faire le tri entre les usages qui en sont faits dans le débat public 3. Il s’agit plutôt de saisir au travers de cette reformulation quantitative des termes du débat des transformations du « gouvernement » de la justice, c’est-à-dire des savoirs et des acteurs chargés à des titres divers d’en évaluer la légitimité et d’en préparer la réforme4. Et de fait, si cette conversion collective aux vertus du chiffre marque la montée en puissance du registre de l’objectivité et de la neutralité qui prime désormais sur la mise en avant des enjeux politiques de la réforme (A), elle ne doit certainement pas laisser croire à une forme de pacification progressive des débats. Relais essentiel d’une transformation du regard public sur la justice (B), le chiffre permet de suivre l’émergence de nouveaux experts et de nouvelles expertises en matière de justice en même temps que la remise en cause du modèle classique de régulation sociale des mondes judiciaires construit autour d’un idéal de singularité et d’incommensurabilité (C). A/ La mise en chiffre de la justice La centralité du chiffre judiciaire est un phénomène récent (1) indissociable en fait de l’essor d’un nouveau registre d’intervention publique 3 Ce qui ne signifie pas que ce travail n’est pas salutaire, sans doute tout particulièrement pour les raisons mêmes que souligne cet article. Voir en ce sens, les articles d’Evelyne Serverin, « De la statistique judiciaire civile et de ses usages », Revue internationale de droit économique, vol. 13, n°2, 1999, pp. 281294, et de Bruno Aubusson, Nasser Lalam, René Padieu, Philippe Zamora, « Les statistiques de la délinquance », dans Insee, France, portrait social 2002-2003, 2003, pp. 141-159. Voir aussi les publications de l’association Pénombre qui réunit depuis 1993 chercheurs, statisticiens et hauts fonctionnaires afin d’exercer une vigilance collective sur les usages du chiffre le débat public, notamment en matière pénale. 4 Cette mise en chiffre gagnerait à être mise en rapport avec le développement tous azimuts des standards qui, à l’image du développement de logiciels unifiés (de gestion des cabinets d’avocat, de gestion de l’aide juridictionnelle...), des certifications ISO des cabinets d’avocat ou de certaines juridictions, se diffusent depuis une quinzaine d’années dans l’univers judiciaire. Paru dans la Revue française d’administration publique, 2008 3 dans les débats sur la justice –la forme-« rapport »- mettant en avant objectivité et neutralité (2). -1- Une conversion récente L’activité judiciaire a toujours généré du chiffre. On sait ainsi que la statistique criminelle a constitué l’un des premiers terrains sur lesquels s’est forgée l’appareil statistique de l’Etat français5. De même, la gestion des professions juridiques -qu’elle soit étatique pour les professions réglementées ou privée pour les professions libérales comme le barreaus’est accompagnée du développement d’outils statistiques. Les divers organismes techniques de la profession d’avocat tels que la Caisse nationale des barreaux français (la CNBF fondée en 1947) et l’Association nationale d’assistance administrative et fiscale des avocats (l’Anaafa créée en 1977) produisent ainsi de longue date des données quantitatives6. Mais cet équipement de la Chancellerie et des professions constituait pour l’essentiel un simple sous-produit des activités de gestion (recrutement, carrière, fonds de retraites...)7. A ce titre, il restait pour l’essentiel non-public. Tandis que la statistique civile servait au mieux aux services du ministère pour leur permettre suivre l’évolution de la carte judiciaire, la statistique criminelle était essentiellement utilisée pour saisir non pas tant les problèmes de la justice que l’état moral du pays8. Le début des années 1990 marque de ce point de vue une véritable rupture. Tout se passe comme si le monde du droit et de ses professions s’était soudainement trouvé saisi par une forme de frénésie quantificatrice. La rareté de l’argument chiffré qui caractérisait un univers rétif à toute forme d’objectivation extra-juridique de son activité et de ses pratiques laisse place à une surabondance d’indicateurs et de données. Les données disponibles font désormais l’objet d’usages publics divers tandis que de nouvelles bases et de nouveaux instruments de mesure sont forgés qui alimentent une dynamique auto-entretenue de mise en chiffre de l’univers judiciaire. A défaut de pouvoir restituer ici plus en détail cette conversion 5 Alain Desrosières, La politique des grands nombres. Histoire de la raison statistique, La découverte, 1993. 6 Antoine Vauchez, Laurent Willemez, Contribution à la connaissance statistique de la profession d’avocat, Rapport de recherche pour le Conseil national des barreaux, oct. 2002, 101 p. 7 Brigitte Munoz Perez, « Les statistiques civiles, sous-produit du répertoire général des affaires civiles », Droit et société, n°25, 1993. 8 Frédéric Chauvaud, « De la statistique morale à la statistique instrumentale. Jalons d’une réflexion critique sur les usages de la statistique judiciaire », Déviance et société, n°22, 1998, pp.181-200. progressive, on donne ici quelques repères chronologiques qui permettent de reconstituer une trame historique sommaire. Un premier moment de cet emballement a trait à la profession d’avocat elle-même. Avec l’instauration de l’aide juridictionnelle, l’Etat devient un contributeur essentiel du financement de la profession d’avocat et exerce de ce fait une influence considérable du point de vue salarial via la fixation annuelle par la Chancellerie du montant de l’unité de valeur de l’aide juridictionnelle. Dans ce cadre, la connaissance de la profession intéresse (au double sens du terme) les services du ministère de la justice. Dès 1994, la sous-direction des professions juridiques et judiciaires construit pour la première fois une base de données sur les avocats dont le périmètre se développe progressivement et fait l’objet depuis 1997 d’une publication annuelle disponible en ligne. Dans un contexte où les négociations avec le gouvernement sur l’aide juridictionnelle s’intensifient, les différents organismes représentatifs de la profession s’équipent à leur tour, à l’image du CNB qui se dote en 2001 d’un Observatoire permanent de la profession chargé de constituer un annuaire statistique de la profession (notamment à partir des données statistiques disponibles via la CNBF), suivi de près –comme il se doit- par le barreau de Paris9. Au-delà de ces protagonistes habituels des politiques publiques de la justice, un ensemble de nouveaux acteurs restés jusque-là à l’écart des débats sur la réforme de la justice y font désormais intrusion au nom du chiffre. Ce sont bien sûr les journalistes qui, palmarès et sondages d’opinion à l’appui, revendiquent désormais un point de vue surplombant sur les raisons et les enjeux de la crise de la justice. Ce sont les administrations centrales qui, dès 1999, par le biais des réflexions sur la qualité des services publics, puis de manière décisive après l’adoption de la LOLF en août 2001, formalisent des « indicateurs de performance » construits sur la base des données statistiques disponibles10. Ce sont aussi les institutions internationales qui, converties pour des raisons diverses (développement économique, consolidation démocratique, efficacité administrative), à l’importance du bon fonctionnement de la machine judiciaire produisent un ensemble de classements pays par pays des performances. Chronologiquement, c’est la Banque mondiale ouvre le ban de manière spectaculaire. L’indice universel et synthétique de « facilité à faire des affaires » qu’elle crée en 2003 pointe désormais chaque année les effets négatifs de la lenteur, lourdeur, inefficacité et corruption pour la 9 Voir notamment « Un observatoire pour quoi faire? », dans Observatoire du barre au de Paris, Statistiques 2001, 2002, p. 2. Voir aussi la publication annuelle des données de l’Anaafa dans la revue Maître. La Mission Justice de la LOLF compte ainsi pas moins de 20 indicateurs de performance. Inter alia, ancienneté moyenne du stock par type de juridiction, nombre d’affaires traitées par magistrat, délai moyen de traitement des procédures... Paru dans la Revue française d’administration publique, 2008 5 fluidité de la vie économique (contrats, conditions de liquidation des entreprises en difficulté...)11. Le palmarès qui en résulte et qui situe la France au 44ème rang mondial est censé permettre d’identifier bons et mauvais « élèves » et de diffuser les « bonnes pratiques ». Bien que portée par une logique différente (la modernisation de l’Etat), la Commission européenne pour l’efficacité de la justice (CEPEJ) créée en 2002 au sein du Conseil de l’Europe, contribue à son tour à cette course au chiffre en produisant chaque année depuis 2004 un palmarès des « systèmes judiciaires européens » (2004) qui entend depuis s’imposer comme « un véritable outil au service des politiques publiques de la justice et des citoyens européens»12. 2- Le chiffre et son double : la forme-« rapport » Ce déploiement du chiffre dans l’activité judiciaire ne se comprend pas sans évoquer l’émergence d’un nouveau registre de connaissance de la justice fondé sur la revendication d’une objectivité et d’une neutralité armées des outils de la science. Sans être absolument inédit, ce registre expert est longtemps resté marginal dans un univers où règnent traditionnellement en maître l’essayisme et le témoignage produits de l’intérieur de la machine par les professionnels de la justice eux-mêmes. Fondés sur l’expérience accumulée dans les prétoires, agrémentés de nombreuses anecdotes « édifiantes », ce type de diagnostics était souvent le fait de la plume éloquente et volontiers emphatique des « ténors du barreau ». Ces « interventions » à chaud étaient sans doute plus rares dans le cas de la magistrature du fait de l’éthos de réserve et de secret qui fonde la définition classique de l’excellence professionnelle de ce corps13, mais il empruntait la forme détournée des mémoires, des histoires professionnelles 11 L’indice synthétique de « facilité à faire des affaires » intègre dix indicateurs : création d’entreprises, obtention de licences, recrutement et licenciement, enregistrement de la propriété, obtention du crédit, protection des investisseurs, paiement des taxes, commerce transfrontalier, exécution des contrats, fermeture d’entreprises. Commission européenne pour l’efficacité de la justice (CEPEJ), « Note explicative à la grille révisée pour l’évaluation des systèmes judiciaires » Strasbourg, 15 septembre 2005, site web de la Cepej (visité le 20 novembre 2007). La Cepej a constitué une grille d’évaluation comprenant 123 questions réparties en 9 chapitres : les données démographiques et économiques du pays, l’accès à la justice, l’organisation des tribunaux, les principes du procès équitable, les carrières des juges et des procureurs, les avocats, les modes alternatifs de règlement des litiges, l’exécution des décisions de justice, les notaires. Voir ici l’analyse du président du groupe des experts de la Cepej, Jean-Paul Jean, « Approche méthodologique du rapport de la Cepej sur les systèmes judiciaires européens », consultable en ligne sur le site de la Mission Droit et Justice. 12 13 Sur cet ethos, voir Alain Bancaud, « La réserv privée du juge », Droit et société, n°20-21, 1992, pp. 255-275. Paru dans la Revue française d’administration publique, 2008 6 (cf. Rousselet) quand ce n’était pas celle du libelle vengeur mais anonyme (cf. Casamayor). L’avènement du fait syndical à partir de la fin des années 1960 aura contribué à diversifier les registres et les auteurs de cette littérature judiciaire14. Toute une production à visée explicitement politique émerge alors qui s’appuie sur des organisations (Syndicat de la magistrature, Syndicat des avocats français), des publics (militants) et des moments de mobilisation (congrès, manifestations...). On comprend aisément dès lors que le chiffre n’ait pas constitué l’argument de prédilection des débats sur la réforme. Ce n’est en fait qu’avec l’émergence de la forme-« rapport »15 que l’argument du poids et des mesures fait son entrée dans les controverses. On a montré ailleurs combien s’étaient multipliés, à partir de la fin des années 1980, rapports, livres blancs, et autres états des lieux de la justice16. Si les institutions publiques -nationales et internationales- en sont les premiers commanditaires via les nombreuses commissions ministérielles, missions d’information, rapports d’inspection et commissions d’enquête parlementaires qu’ils ont formés au cours de la période, ils n’ont pas le monopole de cette forme d’intervention publique qui s’est progressivement diffusée aux fondations17, aux ONG (cf. Transparency international), mais aussi désormais –plus frappant encore- aux syndicats eux-mêmes18. Construit autour d’un travail d’enquête et parfois d’audition qui se veut méthodique, systématique voire scientifique, le rapport s’oppose trait pour trait à l’horizon étroit du témoignage individuel comme à l’appréhension jugée partiale du parti pris militant. A l’inverse de la subjectivité (le « je » du témoin) et de la politisation (le « nous » du collectif) propres aux formes de l’essai ou du pamphlet, il affiche une objectivité (« la justice est... ») censée permettre d’établir un fait social « incontestable ». Dans la construction de cette « réalité » devant permettre de dépasser les intérêts 14 Remi Lenoir, « La parole aux juges », Actes de la recherche en sciences sociales, n°101-102, mars 1994, pp. 77-84. 15 Jean-Louis Fournel, « Introduction à la "forme-rapport": caractéristiques et temporalités d’une production de vérité publique », Cultures & Conflits, n°65, printemps 2007, pp. 37-49. 16 Il serait erroné pour autant de considérer que l’avènement du chiffre et de la rhétorique de l’objectivité experte qui l’accompagne a fait disparaître ces différents genres classiques de la littérature judiciaire. Les ouvrages des « ténors du barreau », pénalistes de renom arguant de leur légitimité de prétoire pour intervenir dans les débats judiciaires, les Jean-Marc Varaut, Jean-Denis Bredin, Gilbert Collard, Thierry Levy, Paul Lombard, Daniel Soulez-Larivière ou Jacques Vergès continuent à composer une part substantielle de la production éditoriale en matière judiciaire. Les blogs semblent d’ailleurs donner un nouveau souffle à ce registre d’intervention personnel fondé sur l’expérience directe de l’univers judiciaire : cf. http://www.maitre-eolas.fr; http://www.philippebilger.com... aigne, Pour la justice, 2004. 18 Union syndicale des magistrats, Le livre blanc sur l’état de la justice 2003, janv. 2004. Paru dans la Revue française d’administration publique, 2008 7 « corporatifs » et les points de vue partisans, le chiffre fait figure de un passage obligé. Dans le récit que tout rapport entend mettre en scène et qui lie étroitement le « diagnostic » des dysfonctionnements judiciaires aux propositions de réforme, les données quantitatives constituent invariablement le socle de départ. Ainsi du leitmotiv de « l’explosion du contentieux civil » (ou « explosion de la demande de justice »), véritable « ponts aux ânes » des rapports des années 1990 qui s’appuie sur la mobilisation –souvent hâtive et imprécise- de séries statistiques supposément édifiantes19. La « crise de la justice » telle qu’elle ressort de la forme-« rapport » apparaît ainsi comme le produit d’une équation chiffrée qui sert d’indicateur objectif et synthétique d’un état de fait20. B/ Un nouveau regard public sur la justice Cette reformulation chiffrée de la « crise de la justice » n’est pas propre à cette institution. On le sait, d’autres univers sociaux – particulièrement ceux de la santé et de l’université (cf. classement de Schangaï)- sont touchés de plein fouet par des changements analogues21. Ici comme ailleurs, la saillance du chiffre participe de transformations profondes du regard public sur ces institutions traditionnellement marquées par des formes d’auto-régulation à distance de l’Etat et du marché. Sous l’effet d’un ensemble complexe de dynamiques sociales spécifiques (économiques, journalistiques, administratives, politiques), mais en bien des points convergentes, ces vieux « blocs de granit » se trouvent désormais requis de rendre des comptes. Dans chacun des cas, la mise en chiffre de la justice fait figure de vecteur privilégié de la montée en puissance d’étalons d’évaluation extra-judiciaires de la qualité de cette institution. Parmi ces groupes sociaux qui participent à cette transformation du regard public sur la justice, il faut assurément évoquer les journalistes. La redéfinition du métier journalistique qui s’opère à partir des années 1980 situe en effet une part de l’excellence professionnelle dans la capacité à pénétrer –au nom d’un « droit de savoir » dont ils se font les porte-parole- des mondes sociaux traditionnellement protégés et marqués par le secret. Parce qu’elle permet de percer l’opacité de ces milieux en s’érigeant au nom du « public » (« la 19 Cf. les critiques en ce sens d’Evelyne Serverin, « De la statistique judiciaire civile... », op. cit. Sur ce point, voir Antoine Vauchez, Laurent Willemez, La justice face à ses réformateurs (1980-2006). Entreprises de modernisation, logiques de résistance, PUF, 2007. 21 Sur le monde de la santé, voir les travaux de Frédéric Pierru, Genèse et usages d’un problème public : la « crise du système de santé » français (1980-2004), Thèse pour le doctorat de science politique, Université de Picardie Jules Verne, 2005. justice est l’affaire de tous ») en arbitre des « bons » et des « mauvais » élèves de la démocratie française, la mobilisation du chiffre des sondages et des palmarès conforte la fonction civique (transparence, devoir d’information) dont nombre de journalistes se sentent aujourd’hui porteurs voire comptables22. Préparés par le succès des palmarès hospitaliers, les palmarès judiciaires mais aussi les enquêtes d’opinion arment désormais la critique journalistique des corporatismes et du manque de transparence des professionnels de la justice. Arguant du fait que « la justice est l’affaire de tous »23, ils dressent un « inquiétant état des lieux » pointant invariablement la « loterie des assises », la « justice inégale », la lenteur des procédures et la défiance de l’opinion à son égard24. Mais cette intrusion multiforme des formes d’objectivation chiffrée de l’activité judiciaire n’aurait sans doute pas possible sans un ensemble d’outils conceptuels et méthodologiques permettant de penser la machine judiciaire comme une unité économique « comme les autres », autrement dit sans le développement d’une science économique du droit. Longtemps resté cantonné au monde anglo-américain, le mouvement Law and economics a récemment pris pied sur le territoire français25. Le succès de cette approche auprès d’organisations internationales (et d’ONG) désormais convaincues de l’enjeu économique propre à l’environnement juridique tout comme le poids croissant des logiques économiques sur le « marché du droit »26 ne sont pas étrangers à cette faveur27. Ici aussi, le chiffre est l’instrument essentiel d’un coup de force symbolique qui conduit à repenser l’ensemble des principes (indépendance, inamovibilité...) et traditions juridiques sous l’angle de leur ence économique. Mais il va de soi cependant que ce sont d’abord les politiques de modernisation de l’Etat engagées à partir de la fin des années 1980 ont contribué de manière décisive à cette fétichisation du chiffre. Parce qu’il est 22 On en trouve un exemple frappant dans la manière dont le chiffre est mobilisé pour transformer les termes et les acteurs des débat sur la justice dans la controverse sur l’ouverture de la commission parlementaire Outreau au nom des premiers taux d’audience télévisée et sondages qui fondaient la revendication des journalistes d’une publicité des débats. Cf. Antoine Vauchez, « L’homme, le juge et la ‘cage d’acier’. 23 Yves Thréard, « La justice, l’affaire de tous », Le Figaro, 18 fév. 2006, p. 2. 24 Voir, de manière caractéristique, le sondage du CSA du 26 janvier 2006 pour Le Parisien, c’est-à-dire en pleine affaire Outreau, qui fait dire à ce journal que « près des deux tiers des Français avouent (sic) qu'ils auraient peur s'ils devaient avoir affaire à la justice. » 25 D’une manière générale sur ce mouvement, voir Thierry Kirat, L’économie du droit, Repères, La découverte, 1999. 26 Yves Dezalay, Marchands de droit, Fayard, 1992. 27 Voir le premier numéro spécial de revue juridique consacré à « l’économie de la justice », dans la Revue internationale de droit économique, vol. 13, n°2, 1999. Paru dans la Revue française d’administration publique, 2008 9 porteur d’une plus grande calculabilité et prévisibilité du fonctionnement de la justice, parce qu’il organise son « gouvernement » autour d’un véritable « tableau de bord » qui en explicite et en systématise les paramètres, le chiffre est un instrument classique de la rationalisation bureaucratique à l’œuvre depuis le début des années 1990. Longtemps considérée comme une administration à part au sein de l’Etat, justiciable du fait de sa mission particulière de politiques spécifiques, l’institution judiciaire n’échappe pas à la vogue modernisatrice des vingt dernières années. L’investissement financier croissant dans le domaine judiciaire (notamment via la politique de l’aide juridictionnelle) et, d’une manière générale, la place croissante qu’occupent, dans l’activité des gouvernements, les considérations sur l’organisation, les moyens et les méthodes (réunis autour de la thématique de la « réforme de l’Etat »28) auront suffi à avoir raison du « splendide isolement » judiciaire. L’application de la LOLF qui soumet la « Mission justice » à la même politique d’indicateurs que les 33 autres Missions de l’Etat ne constitue en fait que l’ultime avatar de deux décennies de projets de rationalisation administrative auquel chaque majorité aura apporté sa pierre. Dès lors que l’évaluation de la qualité de la justice devient ainsi avant tout une affaire de quantité –qu’il s’agisse de « rendement » (taux de réponse pénale à assurer), de « célérité » (rapidité de la réponse judiciaire apportée), ou de « coûts » (frais de justice à restreindre)- le chiffre devient le point d’appui incontournable des nouvelles politiques publiques de la justice. Le développement à la Chancellerie et à Bercy d’un ensemble d’outils de gestion permettant un pilotage à distance de la « machine judiciaire » s’accompagne de la réaffirmation de la position des élites et institutions administratives sur les élites et institutions judiciaires (acteurs judiciaires « de terrain »). Ainsi donc, pour divers qu’ils soient, les usages du chiffre judiciaire sont très variables mais ils forment bien chaque fois l’opérateur voire la clé de voûte des transformations contemporaines du regard public sur la justice. Ensemble, ils font valoir sous des formes et à des fins différentes la possibilité de mesurer et d’objectiver les pratiques judiciaires. En ce sens, ils participent d’un seul et même mouvement de remise en cause de l’autorégulation sociale de la justice par lequel les élites judiciaires traditionnelles –magistrats en juridiction, avocats, greffiers...- sont sommées de rendre des 28 On renvoie ici aux travaux de Philippe Bezès, Gouverner l’administration (1962-1997), Thèse de doctorat, Sciences Po Paris, 2002. Paru dans la Revue française d’administration publique, 2008 10 comptes renonçant par le fait à la singularité et à l’incommensurabilité de ce qu’ils accomplissent. C/ Politiques du chiffre L’erreur serait sans doute de considérer que le développement de ces nouvelles bases engage une cumulativité permettant à terme de produire un tableau véritablement objectif de « l’état de justice ». Les travaux de sociologie de la statistique invitent en effet à faire le deuil de l’idée qu’il y a aurait une réalité sociale donnée, pré-existante et déjà-là que l’on pourrait reconstituer à partir du croisement des données. Parce que le chiffre n’existe pas indépendamment de celui qui le produit et lui donne sens, les controverses qui se cristallisent autour de lui ne peuvent s’analyser simplement comme une seule et même recherche du « bon chiffre », mais forment bien un nouveau terrain d’affrontement où semble se jouer le sort des politiques publiques de justice. Dès lors, en faisant apparaître la double face indissociablement technique et politique du chiffre qui tout à la fois décrit (par la connaissance qu’il permet de construire) et prescrit (par la vision du monde qu’il contribue à faire exister), on cherche ici à rendre compte des transformations du « gouvernement » de la justice. Toute base de données est en effet porteuse de visions différentes des acteurs, des espaces et des enjeux de la justice. En ce sens, toute construction chiffrée est un coup de force symbolique ou, pour le dire autrement, toute représentation statistique met en jeu la représentation politique du groupe ainsi agrégé. Pour trois raisons au moins. Parce qu’elle fait exister l’« espace de comparabilité » dans lequel se situe l’institution, c’est-à-dire ses étalons et ses points de repère29, qu’ils soient inter-nationaux dans le cas des classements des organisations internationales, interjuridictions dans le cas des palmarès journalistiques ou des statistiques judiciaires, inter-magistrats dans le cas de certains des indicateurs de la LOLF (voir, par exemple, l’indicateur « Nombre d’affaires traitées par magistrat ») ou encore inter-institutions pour ce qui est des indices de confiance produits par les instituts de sondage. Parce qu’elle conduit à la constitution de moyennes et d’écarts-types, ces mises en série indiquent de ce fait l’espace pertinent d’ajustement (et, partant, de négociation). Ensuite parce que, du fait des catégories d’analyse qu’elle institue, toute base de 29 Alain Desrosières, La politique des grands nombres. Op. cit. Paru dans la Revue française d’administration publique, 2008 11 données introduit des continuités là où il y a souvent beaucoup d’hétérogénéité et des discontinuités là où on peut trouver des continuum. Ainsi, quand la Chancellerie n’intègre pas les juridictions administratives dans la comptabilisation du budget de la justice et conteste dès lors le classement de la France par la CEPEJ en la matière, elle défend plus qu’un chiffre, mais aussi la spécificité française de la dualité des ordres juridictionnelles, spécificité d’ailleurs maintenue in extremis dans la LOLF elle-même30. Enfin parce qu’avec le niveau de collecte et le niveau d’agrégation des données (organisme privé/professionnel/syndical/étatique/international...), les bases de données contribuent à établir le niveau pertinent pour la représentation politique du groupe et/ou du problème. De ce point de vue, il y a un écart important entre le classement produit par la CEPEJ qui s’appuie sur des données collectées par les administrations nationales et négocie avec les différents Etats membres sa nomenclature et le palmarès de la Banque mondiale qui entend court-circuiter les autorités nationales par la constitution dans chaque pays de réseaux d’informateurs « indépendants ». Dès lors que les conventions statistiques mettent en jeu une représentation des enjeux et des acteurs de la justice, on ne s’étonnera qu’une partie des controverses se joue désormais autour voire sur le chiffre. Peut-on « comparer des pommes et des oranges » (critique des « effets de structure »)? Peut-on penser les choses ceteris paribus (critique des « effets réverbère » )? Quelle est la pertinence des nomenclatures? Quelle est la représentativité statistique de la base? Autrement dit, qui a le « bon » ou le « meilleur » chiffre? Longtemps cantonnée aux cercles spécialisés, la critique interne des données a largement débordé l’espace proprement universitaire. La sincérité des conditions de collecte, le réalisme des choix de nomenclatures, la robustesse des conventions statistiques, les biais de représentativité deviennent souvent aujourd’hui le terrain même des controverses. Autrement dit, une part des débats passe désormais par la mise à l’épreuve du bien-fondé des données elles-mêmes. C’est le cas des critiques de la LOLF qui insistent sur tous les biais qu’introduisent les indicateurs de performance choisis soit pour leur pauvreté (données 30 14 octobre 2005, Congrès de l’USM, Discours de Pascal Clément, ministre de la Justice, garde des Sceaux : « On peut dire que le budget de la Justice bénéficie d’une place honorable en Europe. La grille d’évaluation du CEPEJ avait laissé à l’appréciation des pays l’expression budget annuel alloué à l’ensemble des tribunaux. Ainsi la France n’avait pas comptabilisé la Justice administrative, alors qu’elle était le plus souvent intégrée chez ses voisins. Ce correctif effectué, le budget de la Justice s’élève à 38, 3 euros par habitant au lieu de 28,3, soit un niveau proche de la Norvège et des Pays-Bas, c’est-à-dire une place dans le premier quart du classement. », http://www.presse.justice.gouv.fr/index.php? rubrique=10093&ssru brique=10240&article=11314 (consulté le 15 novembre 2007). sommaires) soit du fait de la disparité géographique du contentieux : « comment comparer un tribunal qui juge proportionnellement plus d’escroqueries avec un tribunal » qui « fait » beaucoup de comparution immédiate s’interroge ainsi Bruno d’Aubusson31. La mobilisation qui, en France, fait suite au premier rapport Doing business (2004) est également caractéristique de ce point de vue. Tout en se donnant un objectif explicitement politique -« démontrer l’efficacité de certains instruments juridiques inspirés du droit, et notamment de la tradition juridique française »- le consortium constitué à travers le groupe sur l’Attractivité économique du droit (AED) a d’abord fait porter sa critique sur la fragilité des prémisses méthodologiques du classement32. En dressant l’inventaire des biais et autres défauts de représentativité du classement, ils travaillent ainsi à établir le déficit de réalité du travail de la Banque mondiale33. On s’en doute, ces conflits autour du chiffre et de sa validité relèvent au moins autant d’un point d’honneur technicien (défendre ou critiquer la qualité technique d’une base statistique, d’un sondage ou d’un classement) qu’ils ne révèlent des conflits politiques. Faire la preuve des défauts de forme statistique, c’est aussi priver l’institution qui a produit les chiffres de la capacité de parler au nom de la totalité qu’ils étaient censés représenter34. Pour le dire autrement, la mise à l’épreuve de la légitimité d’une institution à prendre part au débat sur la justice passe par celle des données dont elle s’autorise pour « dire » le groupe, son état et ses problèmes. En ce sens, le raffinement statistique croissant des données produites s’analyse aussi comme le fruit ces luttes sur le chiffre où se joue la capacité d’une base (et de ses producteurs) à représenter une « population » donnée (d’individus, de juridictions, de systèmes juridiques...). Pour faire face aux critiques de ce qui fait figure de prémisse (« l’explosion du contentieux ») de ses politiques de modernisation, la Chancellerie revendique ainsi « un gros investissement sur l’appareil statistique depuis plusieurs années pour isoler dans les comparaisons des délais de jugement au civil ce qui est imputable au volume des effectifs, mais aussi à l’organisation de la juridiction »35. De manière d’Aubusson, Jean-Paul Jean, « La LOLF et la mission Justice », Pénombre. Lettre grise, 2006, pp. 43-47, p. 45. 32 Bertrand du Marais (dir.), Des indicateurs pour mesurer le droit? Les limites méthodologiques des rapports Doing business, La Documentation Française, 2006. 33 « Le programme de recherche sur l’Attractivité économique du droit », La lettre de l’AED, n°4, 2007, p. 4. 34 Sur ces liens entre représentation statistique et représentation politique, voir Laurent Thévenot, « Statistique et politique : La normalité du collectif », Politix, n°25, 1994, pp. 5-20. 35 On pourrait dire de même à propos du « taux de réponse pénale », nouvel indicateur censé offrir une vue de la « réalité » de la réponse de l’Etat plus fine que le « taux de classement sans suite » indicateur plus grossier (et partant plus fragile) qui agrégeait l’activité des servic es de police et l’activité propre des parquets. similaire, la Banque mondiale a considérablement amendé et enrichi son appareil de mesure de l’attractivité économique au lendemain de son premier rapport lourdement critiqué en France. Autrement dit, derrière ou, plus exactement, dans l’apparente technicité de la discussion chiffrée sur la justice se joue une question politique, celle des acteurs et des catégories de la réforme –et donc du gouvernement- de la justice. Mieux, on peut faire l’hypothèse que c’est la technicité même de ces débats qui permet d’engager des discussions sur des points politiquement aussi sensibles que celui du droit de regard d’organisations internationales sur le fonctionnement d’un ordre juridique national réputé souverain ou celui du droit de regard de la Chancellerie (et de l’administration centrale au sens large) sur les pratiques judiciaires réputées indépendantes. Dès lors que s’y joue des questions politiques aussi critiques, on ne s’étonnera pas que la technique quantitative devienne un des langages privilégiés des débats publics sur la justice. Il ne faudrait pas pour autant considérer que ne se joue ici qu’une simple reformulation en termes chiffrés de conflits et de clivages pré-existants. En accompagnant l’intrusion d’experts et de types d’expertise qui lui étaient jusque là largement (ou complètement) étrangers, qu’ils soient statisticiens, instituts de sondage, hauts fonctionnaires du ministère des finances, gestionnaires de la Chancellerie, experts en finances publiques, comptables, économistes et consultants, le chiffre contribue à transformer en profondeur le périmètre du débat. Et c’est là sans doute l’un des effets les plus inaperçus de cette technicisation que de s’accompagner d’une recomposition des savoirs et des pouvoirs au sein de l’institution judiciaire -même. Paru dans la Revue française d’administration publique, 2008 14.
55,813
2019EHES0157_20
French-Science-Pile
Open Science
Various open science
2,019
La place des habitants dans le tourisme : ethnographie d’une forme de résistance sur le territoire parisien
None
French
Spoken
7,190
11,287
C’était juste normal »839. Mais les souvenirs du jeune homme, à l’égard de cette présence, s’inscrivent aussi à partir de l’intérieur même de l’appartement familial. Alors que nous nous trouvons sur le quai d’Orléans, au pied de l’immeuble où il habitait un appartement au rez-dechaussée, il raconte : « C’est une histoire spéciale, cette maison, en fait, parce que c’est à la fois très beau et à la fois, moi je l’ai un peu vécu, quand j’étais jeune, comme une prison dorée. Je vais te dire ça... c’est complètement un commentaire de fils pourri gâté! [Rire] Parce que, tu vois, j’sais pas si c’est une bonne image, ces fenêtres, pour t’en rendre compte, mais derrière, y’a un salon qu’est très beau, très ancien, qui fait très moyenâgeux en fait, qui est comme une espèce de musée. C’est vraiment hyper beau. C’est des très grandes fenêtres et comme tu vois là, y’avait déjà des plantes assez hautes pour qu’on puisse pas voir à l’intérieur. Et moi, gamin, j’étais derrière ces trucs-là, je voyais la lumière dehors, j’entendais les foules de gens dehors, surtout des touristes, et j’pouvais pas sortir. Parce que, quand t’es tout petit, quand t’as moins 13 ou 14 ans, tu peux pas sortir tout seul, tes parents, ils sont pas toujours disponibles pour te faire sortir. Et c’est pas des endroits où tu peux te balader seul. Y’a trop de gens, etc. Et surtout, ces fenêtres sont assez jolies, les touristes s’arrêtent toujours devant et prennent toujours des photos. [...] Alors j’les voyais pas, mais je les entendais, en fait. Et du coup, t’entends tout ce monde dehors et toi t’as l’impression de pas pouvoir y aller, quoi. T’es enfermé chez toi et ça fait un peu prison. » (Extrait du carnet de note du 24 juillet 2018) Il se rappelle d’ailleurs : « Mes parents, ils pestaient beaucoup contre les touristes qui essayaient d’entrer par la porte [de l’immeuble] quand la porte s’ouvrait »840. Lorsque Paolo sortait dans son quartier, c’était souvent pour jouer dans le square au pied de Notre-Dame ou au bord de la Seine, des lieux particulièrement prisés par les touristes. Il décrit également avec beaucoup de précisions ses déjeuners très fréquents à « La Brasserie de l’Isle Saint-Louis » avec ses parents. « C’était vraiment un endroit que j’aimais beaucoup, en particulier parce que... c’est un peu moins le cas maintenant, mais ils employaient des garçons qu’ étaient un peu le cli... pas le cliché mais le ... les garçons du Paris à l’a ncienne, qui ont fait toute leur carrière dans cette brasserie, qui avaient jusqu’à 60 ans, qui connaissaient tout le monde, qui te connaissaient depuis que t’étais gosse. C’était très familial comme endroit, même si beaucoup de touristes y passaient. C’était un peu un endroit intermédiaire entre le lieu très touristique et le lieu très typique. Parce que le mode de fonctionnement – peut-être un peu moins maintenant, mais à l’époque en tout cas – était vraiment très typique, très authentique, et à la fois, énormément de touristes y 839 840 Ibidem. Ibi dem . — 301 — passaient. Mais ça garde un peu cet aspect, par exemple, la brasserie ferme euh... je sais pas si elle est fermée là, mais en tout cas, tout le mois d’août, elle est fermée. Alors que y’a plein de touristes. Je crois qu’à l’époque elle fermait mi-juillet, de mi-juillet à fin août, parce que les patrons partaient en vacances. Et donc les patrons tenaient la brasserie, donc la femme et le mari, qui avaient à peu près l’âge de mes parents, étaient toujours à la brasserie, l’un ou l’autre. Donc c’est pas un truc qu’ils possèdent et dont ils s’occupent pas. C’est vraiment un truc où ils étaient tout le temps, de l’ouverture à la fermeture. Donc ça avait vraiment ce côté, un peu “brasserie de quartier” qui est... c’est moins vrai maintenant, je pense. Mais ça l’était vachement à l’époque et c’est pour ça qu’on y allait autant. » (Extrait des notes de terrain du 24 juillet 2018) À ses yeux et dans ses souvenirs, cette brasserie était donc vouée aux habitants du quartier, de la même façon que l’était le plus célèbre des glaciers de l’île : « [...] c’est pareil, Berthillon, et c’est moins vrai maintenant aussi, mais ils ferment toujours tout le mois d’août pour partir en vacances, alors qu’il y a des millions de touristes! »841. En dehors de quelques questions ciblées sur le sujet, dans son récit, Paolo n’évoque que sommairement la présence de touristes dans les lieux de son quotidien. L’expression subtile de cette omniprésence laisse penser, qu’aux yeux du jeune homme, les visiteurs étrangers faisaient partie du paysage. Autrement dit, la présence de touristes dans son quartier relevait, pour lui, d’une « normalité » et d’une quotidienneté tout à fait banale, au point qu’il ne songe pas systématiquement à en signaler l’existence. D’ailleurs, il formule lui-même l’hypothèse que son rapport à l’espace devait être différent de celui des visiteurs : « Le parc ou les trucs où j’allais, je les vivais pas de la même manière que... que les touristes qui venaient là »842. En effet, il est aisé de l’imaginer, sur l’île de la Cité, jouer dans le bac à sable du square Jean XXIII, pendant que les touristes cherchent le meilleur angle pour photographier la cathédrale Notre-Dame. De surcroît, selon Paolo, les contacts directs avec les touristes étaient très rares : « En fait, ils te calculent pas du tout, les touristes. Ils se rendent pas compte que t’es un local. Ils s’intéressent pas à toi. J’ai pas le souvenir d’une seule fois où un touriste m’ait adressé la parole, même pas pour un renseignement, en fait. Donc vraiment pas du tout. Ou peut-être ado, on m’a demandé des renseignements, mais vraiment complètement... enfin autant que partout ailleurs à Paris, quoi. (Extrait du carnet de terrain du 24 juillet 2018) Les détails de ces souvenirs font apparaître deux populations distinctes, chacune vaquant à ses occupations et cohabitant, en parallèle, de manière relativement pacifique, comme l’explique le trentenaire : « J’ai pas du tout le souvenir, même plus grand, d’avoir eu l’impression que les touristes se comportaient “comme à Disneyland”, disons. Pas de touristes sales, pas de 841 842 Ibidem. Ibidem. — 302 — gens qui se sentent comme chez eux, qui font n’importe quoi, pas du tout. » (Extrait du carnet de terrain du 24 juillet 2018) En comparaison avec l’île Saint-Louis, Paolo affirme que, dans le quartier de Ménilmontant, où il a choisi d’habiter avec sa compagne, « y’a pas de touristes », à l’exception de ce qu’il considère comme un simple constat, et non comme une nuisance : « J’me rends compte qu’il y a des Airbnb dans l’immeuble en face de chez moi, l’été en général »843. Mais en comparaison de l’attractivité de l’île Saint-Louis, il ne voit, dans cette absence, aucun soulagement particulier, affirmant les visiteurs ne l’ont jamais vraiment dérangé dans les différents coins de Paris où il a résidé. Habitants de la banlieue, d’arrondissements peu touristiques ou de quartiers hyper-centraux, les résidents interrogés dans le cadre de cette enquête reconnaissent quasi-unanimement que leur environnement quotidien implique une présence plus ou moins marquée de visiteurs et d’activités touristiques. Entre les témoignages de Charles et de Valérie, pour qui la présence touristique est source de fierté et de plaisir, et celui d’Évelyne, qui aimerait faire cesser les va-et-vient de locataires Airbnb dans sa résidence de la rue des Haudriettes, dans le 3e arrondissement, comment est perçue la présence touristique par les Parisiens? Grâce à deux études réalisées en 2017-2018 et à l’enquête ethnographique se dresse une visibilité, à la fois plus fine et plus globale, des sentiments exprimés par les habitants à l’égard des touristes et du tourisme dans la capitale. b. La perception du tourisme par les Parisiens : entre vision positive et nuisances localisées Selon une étude menée en 2017 par la Ville de Paris844 auprès de 500 personnes, la perception du tourisme par les Parisiens affiche une note moyenne d’un peu plus de 7 sur 10, révélant, ainsi, une vision globalement positive. 86 % des personnes interrogées se sentent fières de vivre dans une ville touristique et 87 % des répondants estiment que le tourisme contribue à l’économie locale845. 843 Ibidem. Au cours de l’année 2017, une proposition émanant de la Direction de la Voirie et des Déplacements (DVD) me donne l’occasion, avec l’un de mes collègues, de participer à la mise en place d’une étude sur la perception du tourisme par les Parisiens. Alors que l’enquête est initialement envisagée pour se concentrer sur les sentiments vis-àvis des transports dans l’espace public, l’autonomie qui nous est accordée nous laisse la possibilité d’orienter certaines interrogations vers une dimension plus large. L’objectif est, alors, d’inclure dans le questionnaire des questions sur la vision de la présence touristique à Paris. D’un point de vue méthodologique, 5 zones ont été choisies pour leur hétérogénéité socio-culturelle et en matière d’attractivité touristique : les quartiers du Marais, de SaintMichel, de l’Opéra, de Denfert-Rochereau et de Belleville-Faubourg du temple. L’enquête a ciblé deux « groupes » d’individus : les résidents permanents de l’espace concerné, d’une part, et les « visiteurs réguliers » (composés des actifs y travaillant ou d’individus fréquentant régulièrement le quartier pour d’autres raisons). Par le biais du cabinet d’étude MV2 Conseils, les questionnaires, d’une quinzaine de minutes, ont été passés au début du mois de décembre 2017. Pour les résidents, l’entretien avait lieu par téléphone, et pour les « visiteurs réguliers », en face à face. 845 Source : Mairie de Paris, Étude. Perception du tourisme par les Parisiens, Enquête réalisée par la Direction de la Voirie et des Déplacements (DVD), la Direction de l’Attractivité et de l’Emploi (DAE) et le cabinet MV2 Conseils à Paris, décembre 2017 [Non publiée]. 844 — 303 — Pour Valérie, la cohabitation avec les touristes « est une chance pour Paris, en comparaison de Barcelone, qu’elle considère ne pas être « une ville qui est faite pour les touristes »846 : « Le quartier touristique est petit, euh... t’as tous les jeunes qui vont là-bas pour se bourrer la gueule, quoi, en résumé. Et pour eux, le tourisme c’est un ravage, c’est monstrueux. [...] moi [les touristes] me dérangent pas et puis, en général, quand ils viennent, ils sont aimables. » (Extrait de l’entretien du 16 janvier 2018) Du point de vue de Diane, la présence touristique à Paris figure en, premier lieu, comme un « avantage économique pour la ville »847. Et son ressenti personnel est globalement positif. « [C]’est sympathique pour nous parce que [...] c’est quand même sympathique de vivre dans une ville attractive », explique-t-elle, bien qu’elle trouve, néanmoins, que la capitale compte « de plus en plus » de touristes848. Paul, qui habite à Montmartre où il accompagne régulièrement des visiteurs dans le cadre de ses balades Greeter, déplore, de son côté « le tourisme de masse » en prenant soin de préciser qu’il n’a « jamais voyagé comme ça »849, c’est-à-dire en groupe et dans le cadre d’un séjour collectif organisé. Il précise que « vers le métro [Abbesses], y’a toujours un monde fou, y’a toujours énormément de monde », évoquant la présence de « groupes [...] agglutinés »850. Donc pour ce septuagénaire, les touristes sont, à Montmartre, principalement visibles et perçus comme une masse gênante. Du point de vue de Gaby, membre de l’association Vivre le Marais!, « le tourisme, c’est à la fois une chance et un danger terrible. [...] C’est comme une invasion de criquets qui vous bouffent tout un champ »851. Développer le tourisme à Paris est un projet qu’il a du mal à considérer positivement car, pour lui, la ville est déjà la plus visitée dans le monde et la concentration des habitants est une des plus fortes en Europe, ce qu’il ressent comme une « invasion dans la rue [et dans] les transports en commun »852. Gaby dresse une liste de sujets vécus comme des nuisances qui pourraient résumer les thématiques traitées dans le blog de l’association dont il fait partie : la propreté, le bruit, la pollution et l’envahissement par les rats, « notamment au pied de la tour SaintJacques »853. Pour finir, cet habitant utilise une figure de style pour témoigner de son sentiment visà-vis du tourisme : « Développer le tourisme, c’est comme Schubert et Verdi : l’un est l’empêcheur, l’autre est le promoteur », témoignant de sa vision partagée entre des aspects positifs et certaines dimensions négatives . Selon lui, il ne faudrait pas organiser des évènements qui attirent encore plus 846 Extrait de l’entretien du 16 janvier 2018. Extrait de l’entretien du 31 mars 2016. 848 Source : Entretien du 31 mars 2016. 849 Extrait de l’entretien du 11 juillet 2018. 850 Ibidem. 851 Extrait de l’entretien du 10 janvier 2017. 852 Ibidem. 853 Ibidem. 847 — 304 — de monde, pointant ainsi du doigt les Jeux Olympiques à venir, mais aussi les projets d’extension du site de Roland Garros854. Selon l’étude réalisée par le cabinet TCI Research au cours de l’année 2018855, 55 % des enquêtés considèrent que le développement du tourisme à Paris génère plus de conséquences positives que négatives, et une personne sur trois estime que les effets sont plutôt partagés. Aussi, elle révèle que 56 % des Parisiens interrogés pensent que la ville doit continuer à se promouvoir pour attirer des touristes, chiffre que le cabinet signale à six points au-dessus du pourcentage obtenu dans les autres villes européennes soumises à la même enquête856. Mais il est probable qu’Évelyne et Gilbert figurent parmi les 44 % restant. En effet, du point de vue de la première, qui réside dans le Marais depuis près de 40 ans, Paris connaît une évolution remettant en question « sa qualité de la plus belle ville, ou l’une des plus belles villes du monde »857. Et pour elle, ces changements, qu’elle observe « depuis une dizaine d’années », sont directement liés aux flux de touristes « que l’on ne sait pas encadrer et maîtriser », ce qui entraîne un déséquilibre et une « disproportion [...] entre le flux touristique et les habitants »858. « Nous vivons dans une ville magnifique, dans un quartier magnifique avec un patrimoine architectural qui a été sauvegardé. Merci monsieur Malraux. Euh... et si vous voulez, l’afflux de touristes de masse, c’est pas ce tourisme-là qui rapporte véritablement de l’argent. Pourquoi? Parce que la plupart de ces touristes ont tout prépayés au départ euh... Et à la limite, ils dégradent plus, ils salissent plus que ça ne rapporte de l’argent hein, c’est... Bon mais il ne faut pas faire, il ne faut pas non plus avoir une... enfin des, des préjugés. Il faut être pragmatique et sentir la limite du supportable. C’est comme le problème de la mixité dans les quartiers. Si vous avez des quartiers qui sont des ghettos, ça devient insupportable, vous êtes d’accord? Et puis on ne va pas plus loin dans la comparaison. C’est un problème de... d’équilibre. Et le bien vivre ensemble repose sur un équilibre. » (Extrait de l’entretien du 14 février 2017) C’est dans une perception analogue que Gilbert, Montmartrois résidant sur la place du Tertre, décrit l’évolution dont il a été témoin dans son quartier : « [...] ce qui a évolué c’est euh... essentiellement la... [...] la pression touristique a considérablement augmenté. D’abord elle n’est plus saisonnière, c’est-à-dire qu’on a du monde toute l’année : l’hiver, tout autour de la place [du Tertre], vous avez des gens 854 Source : Entretien du 10 janvier 2017. Cabinet TCI Research, Étude de la perception du tourisme par les résidents parisiens, Enquête internationale « Residents Sentiment Index » réalisée pour le compte de la Mairie de Paris, rapport d’étude, novembre 2018 [Non publiée]. 856 Dans le cadre de cette étude, les scores de Paris sont comparés à une norme agrégée constituée des 10 destinations suivantes : Londres, Bruxelles, Berlin, Barcelone, Rome, Lisbonne, Amsterdam, Lyon, Marseille et Bordeaux. Source : Ibidem. 857 Extrait de l ’entretien du 14 fé vrier 2017. 858 Ibidem . 855 — 305 — assis aux terrasses de café dehors, sous la neige, hein... » (Extrait de l’entretien du 25 juin 2018) Les chiffres de l’enquête de la Ville sur la perception du tourisme par les Parisiens montre que la part des visiteurs asiatiques est surestimée et que les autocars sont souvent considérés comme une nuisance859. Selon David, chargée de mission à l’Agence de la Mobilité de la mairie de Paris, « le problème principal, c’est que [...] physiquement, [ce mode de transport] donne une impression de nuisance qui va au-delà de la nuisance réelle »860. Ces touristes, dont fait partie le public asiatique, « sont en groupe, ils prennent de la place et donc ils donnent l’impression qu’ils sont hyper nuisibles. Alors qu’en termes de trafic, par exemple, c’est 0,3 % du trafic, les cars. En termes d’émissions environnementales, le sujet vraiment d’actu, c’est 0,5 % des émissions »861, précise-t-il. David souligne, ici, le décalage entre le sentiment, de la part des Parisiens, d’être envahis par les autocars de tourisme, et la part que ceux-ci occupent dans l’ensemble des transports urbains à Paris. Mais il reconnait qu’une partie des explications se trouve, probablement, dans l’imposition matérielle massive que présente un autocar : « Donc je veux dire, la question du trafic ou de la pollution à Paris, c’est pas un sujet qui est lié aux cars, mais c’est vrai que quand tu le vois, tu te dis : “Ouah ce truc, il est hyper imposant”. Il te donne vraiment une impression de gêne, quoi. » (Extrait de l’entretien du 15 février 2017) Aussi, constate-t-il qu’en termes d’occupation de l’espace, « y’a des territoires qui sont historiquement particulièrement impactés » et qu’en ce sens, les espaces de conflits potentiels sont localisés : « C’est Barbès-Rochechouart, Montmartre... Ouais, parce que tu es sur un endroit où y’a toujours eu beaucoup de trafics pour aller visiter le Sacré-Coeur, Montmartre, etc. Et que là, y’a vraiment un problème de... de capacité des voies, en fait. C’est juste pas beaucoup d’espace de voirie, donc en plus, t’as le... y’a le Moulin Rouge qui génère énormément de visites et tout. Donc c’est un endroit où, historiquement, y’a toujours eu des soucis de... d’intégration du stationnement du car. [...] ça a toujours existé depuis que y’a du transfert de groupe, donc ça doit remonter à longtemps [...], au moins les années 80, c’est sûr. [...] À Bercy, sur le territoire de la SNCF, sur leur foncier à eux, ils ont créé deux gares routières pour leurs cars longue distance, [...] et là y’a vraiment des riverains qui nous ont écrit à plusieurs reprises. Je dois encore répondre à un, d’ailleurs qui m’a envoyé... Et ouais y’a vraiment un problème de nuisances là... » (Extrait de l’entretien du 15 février 2017) 859 Source : Mairie de Paris, Étude. Perception du tourisme par les Parisiens, Enquête réalisée par la Direction de la Voirie et des Déplacements (DVD), la Direction de l’Attractivité et de l’Emploi (DAE) et le cabinet MV2 Conseils à Paris, décembre 2017 [Non publiée]. 860 Extrait de l’entretien du 15 février 2017. 861 Ibidem. — 306 — Une partie du travail de cet agent de la Ville consiste, d’ailleurs, à répondre à certaines des plaintes reçues par la mairie en lien avec les transports. Il en décrit le contenu : « souvent c’est le bruit, c’est le sentiment de gêne... c’est ça. Le moteur pas éteint, à l’arrêt. Alors ça c’est le principal truc. D’ailleurs on a proposé, notamment, de mettre une amende. On va voir... »862. Du point de vue de Paolo, qui a vécu jusqu’à ses 22 ans, sur l’île Saint-Louis et, depuis quelques années, s’est installé dans le quartier de Ménilmontant, la présence des touristes dans son quotidien est très rarement mal vécue. Elle ne survient que dans des situations exceptionnelles et dans des lieux qu’il ne fréquente que très occasionnellement : « En fait, ça m’a jamais vraiment gêné, excepté... Enfin si, les seuls moments où je me dis “Ah les touristes, ça fait chier”, c’est au Louvre, à la Tour Eiffel, au Trocadéro. C’est pas chez moi. [...] C’est quand je vois des bus de touristes arriver, qu’ils arrivent... qu’ils se prennent en selfie chaque, euh... tous les 15 centimètres, enfin ce genre de truc, quoi. Et ça, en fait, c’est très ponctuel. C’est vraiment certains endroits dans Paris, et pas trop ailleurs. » (Extrait des notes de terrain du 24 juillet 2018) Le témoignage de cet habitant vient confirmer l’analyse formulée par Jean-François Martins sur l’aspect très localisé des « sujets de frottement »863. Quant à Sylvain, qui a vécu plus de 25 ans à Montmartre, lui considère que la cohabitation avec les touristes a été, pendant cette période, une réalité évidente. Mais de façon générale, il n’a quasiment jamais considéré cette présence comme une nuisance, à une exception près. D’abord, précisant d’emblée que, le « côté touristique à Montmartre [ne le] dérange absolument pas », il dit « comprendre » le comportement des visiteurs, et « adore[r] cette ambiance, d’entendre parler espagnol, japonais, anglais, toutes les langues dans la rue »864. De son point de vue, la situation se résume ainsi : « Pour y habiter, c’est pas du tout difficile... j’descends la rue, ils sont là, ils se baladent, ils sont perdus, ils demandent leur chemin, y’a aucun problème. » (Extrait de l’entretien du 7 juillet 2017) À ce propos, l’étude menée par la Ville montre que la perception positive du tourisme par les Parisiens se retrouve, également, dans le fait que 89 % des personnes sont disposées à aider les touristes en indiquant le chemin ou en les conseillant865. Sylvain précise, par ailleurs, que, selon lui, les nuisances sonores dans son quartier ne provenaient pas des touristes : « en général c’était plutôt ceux qui klaxonnent dans leur voiture, ou qui se... ou qui se battent le soir, ou qui sont bourrés 862 Extrait de l’entretien du 15 février 2017. Extrait de l’entretien du 24 octobre 2018 . 864 Extrait de l’entretien du 7 juillet 2017. 865 Source : Mairie de Paris, Étude. Perception du tourisme par les Parisiens, Enquête réalisée par la Direction de la Voirie et des Déplacements (DVD), la Direction de l’Attractivité et de l’Emploi (DAE) et le cabinet MV2 Conseils à Paris, décembre 2017 [Non publiée]. 863 — 307 — [rires] »866, explique-t-il. Aussi, il ajoute ne pas avoir ressenti de gêne par rapport aux groupes de touristes, appuyant alors sa réponse d’une explication sur les subtilités du découpage territorial de son quartier : « Montmartre c’est divisé... le bas de Montmartre c’est plus vers les Abbesses, Barbès [là où il habitait, NDLR], où y’a pas beaucoup de touristes. [C’est] donc au pied de la Butte, on ressent moins cet envahissement, parce qu’ils sortent du métro et ils vont direct à Montmartre. Après, c’est vrai que la Butte en elle-même, donc la Place du Tertre, le jardin du Sacré-Coeur et tout, là, c’est... c’est envahi. Je pense qu’une vie de locaux vers Place du Tertre n’est plus... en tout cas, ça doit être très difficile [...]. Mais quand t’es rue Simplon, tu vas derrière le Sacré-Coeur, côté rue de la Bonne, le petit parc qui y’a derrière et tout, en deux secondes, tu passes du coq à l’âne, y’a plus personne. » (Extrait de l’entretien du 7 juillet 2017) Pendant deux ans, Sylvain a d’ailleurs habité dans un studio « en haut de la rue du Chevalier de la Barre [...] c’est la rue qui commence derrière le Sacré-Coeur et qui descend jusque rue Clignancourt »867. À cette époque, il était donc « vraiment en bas du Sacré-Cœur » et appréciait alors monter admirer la vue « avec [s]es amis ou le Couchsurfing » : « Ben les gens sont en vacances, relax, donc ça reste bonne ambiance quoi, du coup »868. Néanmoins, à ce point de vue « de résident permanent », Sylvain oppose celui professionnel, expliquant avoir travaillé près de six ans dans une boutique d’objets de décoration « en bas de Montmartre, rue Tardieu, en bas du Sacré-Cœur ». La situation de ce magasin869 offre l’occasion à ses salariés d’être en contact, quotidiennement, avec des touristes de diverses nationalités. Sylvain explique avoir vécu, ces relations avec des touristes, beaucoup plus difficilement qu’en tant qu’habitant : « [...] le contact en magasin avec le touriste est plus... est moins agréable. En voyageant ça m’a permis de mieux comprendre, parce que j’avais travaillé longtemps avant de voyager. Ibidem. 868 Ibidem . 869 Il s’agit d’une boutique Pylones, enseigne qui propose des objets de décorations colorés à des prix moyenne gamme. 867 — 308 — promouvoir pour attirer des touristes) s’élève à 5 % ; un résultat en ligne avec le benchmark, alors même que certaines destinations parmi le périmètre étudié atteignent 20% sur ce critère. Les Parisiens sont plus nombreux qu’ailleurs à estimer que la ville doit continuer à se promouvoir pour attirer les touristes (+6 points par rapport à ce que l’on observe dans les destinations concurrentes). »870 Pourtant, par le biais des échanges et des observations menées dans le cadre de l’enquête ethnographique, les témoignages des résidents sont venus remettre en cause, partiellement, les conclusions globalement positives de ces études quantitatives. L’enthousiasme de nombreux habitants s’accompagne d’un ressentiment – plus ou moins minime et souvent localisé – vis-à-vis de nuisances subies. Mais l’enquête menée sur plus de 1000 Parisiens par le cabinet TCI Research, dévoile, en ses propres termes, une nuance à souligner dans le tableau : « Cependant, si le soutien des résidents au développement du tourisme se montre plutôt satisfaisant, les résultats indiquent clairement que les Parisiens estiment que la politique de la ville ne tient pas suffisamment compte de l’impact du tourisme sur leurs conditions de vie. »871 Encore une fois, la gouvernance semble pointer du doigt, tandis que le tourisme et les touristes ne figurent pas comme les cibles directes des protestations habitantes. Finalement, les résidents permanents ont conscience de cohabiter avec des touristes et, pour certains, quelques nuisances se révèlent perceptibles. « Le tourisme peut aussi s’emparer de quartiers de villes anciennes au point, dans certains cas, de rendre la vie des habitants difficile, voire impossible. Les villes à patrimoine historique et artistique de première importance, qui, souvent, figuraient dans l’itinéraire du Grand Tour il y a trois siècles, font maintenant partie du circuit des voyages organisés aux “...innombrables cars vomissant leurs groupes de touristes...”872. Dans ces villes où les touristes sont très présents, parfois à l’année (Rome, Venise, Montmartre), souvent plusieurs mois par an (Bruges, Cordoue, Florence ou Tolède), la vie devient effectivement difficile pour ceux des habitants qui prétendent continuer à vivre dans le quartier historique devenu le quartier touristique tout en ne dépendant pas directement du tourisme. On conçoit aisément que la vie ne soit plus la même lorsque, pour aller travailler ou faire ses courses, il faut littéralement se frayer un chemin à contre-courant du flot dominant. »873 Dans ce contexte, comment s’exprime l’adaptation ou l’opposition à ces effets de la présence touristique dans leur quotidien? Cette dernière, considérée comme relativement inhérente à la vie 870 Source : Cabinet TCI Research, Étude de la perception du tourisme par les résidents parisiens, Enquête internationale « Residents Sentiment Index » réalisée pour le compte de la Mairie de Paris, rapport d’étude, novembre 2018 [Non publiée]. 871 Ibidem. 872 À propos du Vatican : Collectif, Le Guide du Routard Italie du Sud 2001-2002, Paris, Hachette, 2001, p. 248. 873 Équipe MIT, 2008 [1e édition : 2002], op. cit., pp. 216-217. — 309 — parisienne – plus particulièrement dans certains quartiers comme celui du Marais ou de Montmartre –, semble donner lieu à des résistances infra-politiques, comme l’évoquent Maria Gravari-Barbas et Sébastien Jacquot en reprenant la définition du chercheur Guillaume Marche. Pour celui-ci, « [l’infra-politique] évoque des mobilisations qui ne répondent pas aux critères des formes d’action politique largement reconnues »874. Les résistances infra-politiques « se trouve[nt] sous le seuil de la politique, ou du politique lui-même », et il s’agit de « mobilisations dont les moyens ne sont pas tout à fait politiques par rapport à des mobilisations conventionnelles [...] ou à des pratiques qui ne sont pas tout à fait politiques ni dans la forme ni dans le fond »875. 2. Vivre avec des oiseaux de passage : lister les nuisances a. De l’espace public à la sphère domestique : les lieux concernés Dans l’ouvrage Touristes et habitants. Conflits, complémentarités et arrangements, Gwendal Simon s’attache à définir la dimension de conflit pouvant exister dans le contexte de cohabitation entre des visiteurs et des visités. « Dans les lieux devenus très touristiques, certains conflits sont connus car régulièrement publicisés, résultant pour beaucoup des externalités négatives des effets de groupe (nuisance sonore des comportements festifs, problèmes de congestion et de stationnement, pollutions éventuelles) et de formes altérées de mixité (tendance à la “mono-présence” dans l’espace public et la mono-fonctionnalité des espaces commerciaux). À ces problèmes se superposent souvent des éléments plus structurels, avec des formes de gentrification touristique qui peuvent affecter la transformation sociale des espaces (via la hausse des prix du foncier et des pratiques résidentielles éphémères qui transforment la vie locale, etc.). Mais on peut relever aussi des situations différentes. On observe parfois des conflits de basse intensité, des conflits latents à l’état de sentiment ressenti ou d’oppositions feutrées avec des enjeux de pouvoirs masqués et des oppositions nuancées, sans nécessairement que des divergences s’expriment ouvertement. La lecture de ces conflits de basse intensité dépend de l’échelle d’observation choisie, car plus elle est précise et fine, plus on se donne les moyens d’observer des relations différenciées et de saisir des formes conflictuelles plus ou moins latentes. »876 Le chercheur souligne que « les résistances territorialisées ne relèvent pas nécessairement du simple registre de l’anti-tourisme » : 874 Marche Guillaume, « Why infrapolitics matters », Revue Française d’Études Américaines, n°131, 2012, p. 3. Citation originale : « [...] evokes mobilizations that do not respond to the criteria for widely recognized forms of political action » [Traduction personnelle]. 875 Ibid., pp. 3-4 ; Citation originale : « [...] what lies beneath the threshold of politics, or of the political itself » / « [...] mobilizations whose means do not quite make the mark as political, compared to conventional ones [...] or practices which are not quite political either in terms of form or content » [Traduction personnelle]. 876 Simon Gwendal, 2017, op. cit., pp. 119-120. — 310 — « Elles peuvent résulter d’un contexte local, d’un projet controversé sur un territoire pouvant impliquer différents acteurs (touristes, communautés de résidents ou d’usagers, services de l’État, acteurs privés tels des promoteurs, etc.). [...] les formes de conflit sont variées, ceux-ci se cristallisent autant autour d’usages que de valeurs de l’espace, les controverses se structurent sur différentes ressources du territoire, et les groupes d’acteurs sont pluriels et changeants. »877 Du point de vue de ce sociologue, il existe « différents degrés dans l’intensité des rapports conflictuels : des tensions (ou des conflits dits “larvés”, qui n’empêchent nullement leur vigueur) aux conflits “ouverts” qui se nourrissent de déclarations, de faits et de mots dans les médias et les réseaux sociaux. Ce qui est une manière d’asseoir sa légitimité, en insistant sur le nombre de signataires d’une pétition et/ou l’ancienneté d’une présence sur un territoire, le rappel d’un cadre juridique, etc. »878. L’exemple d’Évelyne, habitante engagée auprès de l’association Vivre le Marais!, illustre cette dernière possibilité d’action. Mobilisant ses compétences professionnelles dans le domaine juridique, elle s’appuie sur le règlement de copropriété de son immeuble pour revendiquer certaines règles de fonctionnement et dissuader les propriétaires de proposer leur logement sur une plateforme de location touristique. Dans le cadre domestique, cette habitante du quartier du Marais décrit diverses nuisances vécues de façon régulière ou exceptionnelle : « [E]n plein mois d’août, dans un studio qui était loué à des touristes et qui, pendant des années, a fait l’objet d’une location tourist ique... je qualifie ça d’industrialisé, c’est-à-dire que ça défilait. Euh... il y a eu une inondation dont les touristes ne se sont pas vraiment rendu compte. » (Extrait de l’entretien du 14 février 2017) À l’absence des gardiens habituels partis en vacances, se sont ajout ées des difficultés de compréhension de la part des touristes qui ignoraient où se trouv ait le robinet d’arrêt d’eau. « Finalement, [l]’appartement en dessous a été abîmé. L’appartement au premier étage a été dévasté, dévasté [elle insiste sur le mot]. Et la chaufferie qui est au rez-dechaussée avait 10 centimètres d’eau dedans. Donc, c’était un dégât colossal [elle insiste sur chaque syllabe]. » (Extrait de l’entretien du 14 février 2017) Évelyne décrit aussi des nuisances survenant de manière plus régulière : « [...] des portes qui claquent la nuit quand on rentre, quand on sort, [...] des sacs poubelles déposés sur le palier parce que on ne sait pas où se trouvent les locaux poubelles. [...] d’autre part, euh... des ascenseurs abîmés, avec le chargement de valises très, très, très lourdes. On en a même eu un summum : des touristes qui se sont installés dans le jardin en plein été pour pique-niquer. C’est un jardin d’agrément, et les enfants n’ont pas le droit de jouer, c’est un jardin qui est fragile, qui nous coûte très cher d’entretien, qui est pour la vue mais pas pour pique-niquer. Mais les touristes 877 878 Ibid., p. 85. Ibid., pp. 118-119. — 311 — imaginent que c’est un jardin public. Et quand je dis “pique-niquer”, c’était... ils saucissonnaient avec des cannettes de bière enfin c’était... c’était extraordinaire! » (Extrait de l’entretien du 14 février 2017) En tant que résidente, Évelyne revendique un « droit à la tranquillité » en le justifiant, notamment, en des termes juridiques : « [...] j’ai une vie classique, c’est-à-dire que je travaille le jour, je me lève tôt le matin, je me couche tard le soir. J’ai envie de dormir sans être dérangée. Et [...] quand vous achetez ou que vous louez et que vous payez un certain prix [...], en contrepartie du prix élevé que vous payez, vous avez un droit à une vie, euh... on va dire, c’est le terme qui est utilisé dans les baux : à une vie bourgeoise. » (Extrait de l’entretien du 14 février 2017) Selon elle, les externalités négatives décrites mettent en péril sa « qualité de vie » en général. Aussi semble-t-elle quelque peu irritée que je lui demande la fréquence des nuisances qu’elle dit vivre « à répétition », tant est si bien qu’elle refuse alors d’y répondre : « Non le problème n’est pas là, une fois, c’est une fois de trop. [...] Nous avons acheté, nous achetons, nous avons acheté, nous avons loué dans cette résidence des appartements dans une résidence d’habitation, de standing calme et élégante, nous payons cher pour acquérir et pour louer, donc nous souhaitons avoir le calme, la tranquillité et le côté agréable de cette résidence pour laquelle... que nous avons choisie et pour laquelle nous payons. Point barre! » (Extrait de l’entretien du 14 février 2017) Or, la difficulté repose, selon cette habitante du Marais sur la différence entre des voisins permanents qui feraient du bruit, mais avec qui il est possible de « s’expliquer », et des visiteurs qu’elle considère comme des oiseaux de passage : « Si ce sont des touristes de passage une nuit ou deux nuits, c’est peine perdue, les suivants recommenceront »879. Évelyne associe donc, à la présence touristique, une liste conséquente de nuisances de tous ordres : le bruit lors des arrivées et des départs qui peuvent avoir lieu également la nuit, l’organisation de fêtes dans les appartements loués par des touristes, le hall d’entrée de l’immeuble qui est assimilé à un hall d’hôtel. Aux exemples situés dans le cadre privé de l’immeuble, s’ajoute le récit de nuisances vécues dans l’espace public. À ce sujet, dans son travail à Notre-Dame de Paris au début des années 2000, 879 Extrait de l’entretien du 14 février 2017. — 312 — Évelyne Cohen observe la cohabitation des paroissiens et des touristes à l’intérieur de l’édifice. Les touristes, par leur nombre toujours croissant, sont considérés comme responsables de la dégradation progressive des lieux et des monuments : « [L]es discours des autorités culturelles et religieuses se rejoignent dans une critique du touriste dont ils mettent en doute la capacité de voir, de croire, de respecter. »880 Selon l’historienne, peu de gens montent dans les tours et la majorité des touristes survolent l’intérieur et l’extérieur du monument. Elle signale que si, au XIXe siècle, des auteurs constataient – ou déploraient – que les visiteurs ne consacrent qu’une demi-journée à Notre-Dame, les visites sont, à présent, chronométrées et durent en moyenne 8 à 15 minutes. La cohabitation entre les paroissiens et les touristes pose donc question depuis très longtemps et aujourd’hui, « l’Église souhaite encourager le développement du tourisme culturel, développer la sensibilité au message de l’art gothique, tout en conservant aux églises leur mission religieuse »881. Par ailleurs, le tourisme place Montmartre dans « une situation assez particulière », considère Gilbert, qui rappelle que le quartier accueille « 11 à 13 millions de touristes par an [...] sur 50 hectares, c’est-à-dire deux fois plus que la Grèce »882. Dans ce contexte de concentration de l’attractivité touristique, le sexagénaire pointe du doigt le rachat des immeubles pour des projets de locations de courte durée, une fuite des habitants, et « une économie parallèle [qui] se développe avec vente à la sauvette massive etc., un parasitisme... [...] c’est-à-dire la vente à la sauvette, [...] le musicien de rue qui fait aussi de la vente à la sauvette parce qu’il vend des DVD, euh le... les [...] Roumaines, etc. »883. Gilbert n’hésite pas à exprimer une hostilité marquée et ciblée, assimilée à « un parasitisme qui se répand » et qu’il lie au tourisme du fait que Montmartre constitue « un lieu de passage extrêmement important »884. De son point de vue, il s’agit « [de] parasites qui se nourrissent de la bête »885. Par définition, le « parasitisme » se rapporte au « caractère encombrant, perturbateur ou nuisible d’une chose, et par métonymie, cette chose [est] considérée comme une tare »886 ; et le parasite désigne une « personne qui vit, prospère aux dépens d’une autre personne ou d’un groupe de personnes » et « qui coûte plus qu’il ne rapporte, qui exploite, tire profit sans rien rapporter, qui se pratique au détriment de la société »887. En ce sens, le Montmartrois considère, donc, l’économie informelle de subsistance des artistes de rue comme des nuisances, au même titre que le développement d’une économie de marché basée sur une transformation des usages 880 Cohen Évelyne, « Visiter Notre-Dame de Paris », hnologie française, Vol. 32, n°3, 2003, p. 510. Ibid., p. 511. 882 Extrait de l’entretien du 25 juin 2018. 883 Ibidem. 884 Ibidem. 885 Ibidem. 886 Source : https://www.cnrtl.fr/definition/parasitisme [consulté le 26 juillet 2019]. 887 Source : https://www.cnrtl.fr/definition/parasite [consulté le 26 juillet 2019]. 881 — 313 — immobiliers jonglant avec la loi. Dans ce contexte, Gilbert accuse les autorités politiques de ne pas assez investir pour accueillir les visiteurs « dans des conditions correctes »888. Aussi, du point de vue de ce septuagénaire, l’un des problèmes majeurs engendrés par l’attractivité de son quartier repose sur les nuisances sonores : « [...] le bruit est un désagrément terrible. Le bruit, bon, la pollution sonore est un des plus grands désagréments. Donc, là-dessus, euh... on a fait faire des mesures par Bruitparif889, etc. Et donc on a... on est à cinq décibels au-dessus de la norme, en permanence. » (Extrait de l’entretien du 25 juin 2018) Concernant les causes de ces nuisances, il ne pointe qu’un unique groupe de responsables : « le bruit, c’est les musiciens forains. [...] c’est-à-dire que vous avez des ensembles avec tam-tam qui peuvent jouer de 10 heures du matin jusqu’à deux heures du matin, en permanence, vous entendez “boom boom boom” »890. En conséquence, Gilbert affirme qu’il ne « peut pas dormir avant une heure du matin [...] tout l’année »891. Par ailleurs, le septuagénaire signale le non-respect de l’occupation de l’espace public, d’une part, par les cafetiers et les restaurateurs, et d’autre part, par les artistes-peintres qui s’installent en nombre sur la Butte et qui ne respectent pas tous la règlementation892. Corrélé à cela, il explique qu’il n’est pas possible de circuler « en voiture, en moto » à Montmartre « parce que la chaussée est occupée par les piétons. Et les piétons sont d’autant plus dans la rue que les terrasses occupent tous les trottoirs, indument »893. Toujours la Butte, le discours de Paul vient confirmer les propos de Gilbert. La première nuisance évoquée par celui-ci ne repose pas sur l’attitude des touristes pris isolément mais sur la présence de groupes dans l’espace public : « [...] vous avez 30 personnes qui sont derrière le guide avec leur petit drapeau [...] et qui sont sur le trottoir et qui marchent lentement. Alors d’accord, j’ai le temps, mais suivre un groupe comme ça, c’est toujours déplaisant. Il y a un fromager qui est un tout petit peu plus loin, là [dans la rue des Abbesses], il a dû prendre contact avec des guides professionnels, j’imagine. Et le guide passe derrière le comptoir, leur montre le buffet aux fromages et ils sont tous agglutinés sur le trottoir. Bruitparif est une association régie par la loi de 1901. C’est « le centre d’évaluation technique de l’environnement sonore en Ile-de-France. » Source : https://www.bruitparif.fr [consulté le 26 juillet 2019]. 890 Extrait de l’entretien du 25 juin 2018. 891 Ibidem. 892 En effet, il existe à Montmartre un certain nombre de règles qui régissent l’installation et l’occupation de l’espace public par les artistes-peintres, notamment autour de la place du Tertre. Il s’agit notamment du paiement d’une patente en échange de laquelle un emplacement leur est attribué. 893 Extrait de l’entretien du 25 juin 2018. 889 — 314 — Blanche, ils sont derrière les tourniquets et là, on peut plus passer. Je trouve ça, des fois, désagréable au bout d’un moment. [...] Pendant les vacances au mois de juillet, au mois d’août, quand les Français sont partis, moi je ne vois jamais de différence ici, y’a tout le temps du monde. » (Extrait de l’entretien du 11 juillet 2018) Ces deux témoignages relatifs à Montmartre révèlent la diversité des externalités négatives vécues par des habitants du quartier. Exprimant ces nuisances ni avec les mêmes mots, ni avec la même virulence, Gilbert et Paul se rejoignent sur l’idée que la présence touristique ne facilite pas leur vie quotidienne sur la Butte qu’ils ne quitteraient, néanmoins, « pour rien au monde »894. Pourtant, ces deux hommes d’environ 70 ans occupent chacun, à travers leurs engagements associatifs respectifs, des rôles qui peuvent être considérés comme antagonistes vis-à-vis des activités touristiques à Paris. En effet, Gilbert est un des membres actifs de l’ADDM18, tandis que Paul fait partie des premiers bénévoles Greeters l’association Parisien d’un jour.
55,417
34/dumas.ccsd.cnrs.fr-dumas-02615241-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,137
12,736
Etude des courbes d'élution et des propriétés anti-bactériennes des implants de tantale imprégnés de vancomycine T H È S E A R T I C L E Présentée et publiquement soutenue devant LA FACULTÉ DE MÉDECINE DE MARSEILLE Le 5 Octobre 2018 Par Monsieur Pierre SAUTET Né le 2 juillet 1988 à Colombes (92) Pour obtenir le grade de Docteur en Médecine D.E.S. de CHIRURGIE GÉNÉRALE P résident Assess eur Directeur Monsieur le Docteur GIORGI Hadrien Assesseurs : * * * * * * * * * * 30 /11/2017 MM SANKALE Marc 1978 1982 1987 1989 1997 2002 2003 Sir 2004 2005 2006 2007 MAGNAN Jacques 31/12/2014 M. M. M. M . M . Monsieur le Professeur Argenson, vous me faîtes l'honneur de présider ce jury. Juste après les résultats de l'ECN, vous aviez été disponible pour répondre à mes interrogations. 5 ans plus tard, je sais que cela est encore le cas. Je suis ravi de faire mon clinicat dans votre service, où la formation est de qualité. Monsieur le Professeur Flecher, vous me faîtes l'honneur de siéger dans ce jury. Vous avez accepté sans hésiter -et peu de temps avant l'échéance- de répondre favorablement à ma demande. Travailler dans un futur proche à vos côtés, est un privilège. Monsieur le Docteur Ollivier, tu as dirigé ce travail avec une obstination folle. Tu y as toujours cru et tu m'as soutenu pour mener à bien ces travaux. Tous les internes d'orthopédie de Marseille savent combien tu es important pour notre formation et je suis très reconnaissant d'avoir pu travailler avec toi. Monsieur le Docteur Giorgi, je te remercie d'avoir accepté de siéger dans ce jury. Tu es la note émotion. J'ai fait partie de ta première équipe d'internes et tu m'as énormément appris sur la chirurgie. Mais plus important encore, nous échangeons régulièrement hors de l'hôpital et c'est toujours un bonheur. 1 REMERCIEMENTS A Morgane. Merci de m'avoir accompagné pour ce voyage à Marseille. Après 108 mois ensemble, tu attends ce que nous avons réussi de mieux : un petit prince. Une sacrée aventure nous attend! A mes parents, qui ont adaptés leurs vies pour rendre la nôtre moins compliquée. Vous pouvez être fiers de vous. A Antoine. Parfois différents, souvent proches. Tu es le grand frère. Tu as formé avec Hanna une magnifique petite famille. Un modèle pour nous. A Julien, nous sommes si fiers de ta réussite. Je sais que tu seras toujours là pour nous. A mamie, ta tendresse et ta bienveillance ont bercés notre enfance. Tous tes petits-enfants s'accordent à le dire. A Carmen, Eléonore et Bernard, Jacques qui doivent être surpris de là-haut. A ma famille : Fifi et Olivier, Bruno, Michèle et mes cousines, François et Véronique, JB, Nicolas et sa troupe, Martine et Robert, Valérie et Magali avec leurs familles. A mes amis Parisiens depuis nos années de médecine –le Fat Crew- Philippe Nefyu, Paul, Totor, Arthur Gégé, Petit, Tinmar, Eloi, Guy, Blue, Arilès, Charles So, Alex L. A mes amis Marseillais : Bastien et Céline. Marcus, Delphine et Maeva. Anne-Saucisse et Guillaume. JC, Matt Chivot, Lysa et Gautier, mon Lt Anger. A mes amis, tout simplement : Les Cantier, Maeva et Justin, Romain, Pierre E, Mathias, Charles A, Thibault D. A Thibaut M, sans qui ce travail n'aurait pas pu voir le jour. 2 A tous mes co-internes. On a passé de bons moments durant ces 5 années! Marcus, Maeva, Delphine et Abdou ; Dimitri et FX ; Marion, Marie et JC ; Naïma, Aurélie, Florent ; Maxime M, Paul, Alexandre C, Doudou, Johanna, JB ; Alex B, Mickaël ; Adrien R, Julie, Pauline M, Sylvain G ; Matthieu C, Yassine B, Daniel C, Quentin, Matthieu Caris ; Olivier, Sharon, Lior, Johanna, David, Victoire et Judie ; Arthur et Stéphane. Au Professeur S. Parratte, à l'origine de ce projet. Vous savez l'admiration que j'ai pour vous. A tous les chefs de cliniques et assistants qui m'ont encadré pendant cette longue formation : Lucile, Kevin, Hadrien, Emilie et Sébastien, Jaafar, Matthieu, Guillaume, Monique et Sylvain, Stéphanie, Max F, JD, JS, Matthieu S et Antoine, Paul. A l'orthopédie PACA, tous m'ont également beaucoup transmis : Damien L, POP, Pr Tropiano, Pr Blondel, l'équipe de l'HIA Saint-Anne, Pr Curvale et Rochwerger, Pr Jouve, l'équipe du CH d'Aix, R Gravier. Au Professeur T. Bauer, qui m'a accueilli dans son service et dont je garderai un souvenir impérissable. Rigueur et humour jalonnent le service. 3 Étude des courbes d'élution et des propriétés antibactériennes des implants de tantale imprégnés de vancomycine. 4 TABLE DES MATIERES 1. INTRODUCTION7 2. PARTIE 1 : Étude des courbes d'élution des implants de tantale poreux imprégnés de vancomycine10 2.1 Matériels et méthodes10 2.1.1 Étude des propriétés d'élution de la vancomycine 2.1.2 Variation de la concentration en vancom ycine des bains de chargement 2.1.3 Variation de la durée de chargement 2.1.4 Analyses statistiques 2.2 Ré sultats13 2.2.1 Étude des propriétés d'élution de la vancomycine. 2.2.2 Variation de la concentration en vancomycine des bains de chargement. 2.2.3 Variation de la durée de chargement. 2.3 Discussion18 3. PARTIE 2 : Étude des propriétés anti-bactériennes des implants de tantale poreux imprégnés de vancomycine21 3.1 Matériels et méthodes21 5 3.2 Résultats23 3.3 Discussion29 4. REFERENCES33 6 INTRODUCTION Les projections aux Etats-Unis pour l'année 2030, du nombre de procédures de prothèses totales de genoux (PTG) et hanches (PTH) – de première intention- sont de 3 480 000 et de 572 000 respectivement. Le nombre de reprises prothétiques de genou devrait croître de +601% et de hanche de +137% sur la période 2005-2030.1 Des évolutions similaires sont attendues en Europe. Les infections périprothétiques (IPP) sont la principale cause de reprises chirurgicales.2 L'incidence est estimée à 2% pour les PTG et de 1% pour les PTH de première intention.3 Le germe le plus fréquemment retrouvé est le Staphyloccocus aureus : celui-ci est incriminé dans 49% des IPP en Europe.4 Le pourcentage de S. aureus, incriminés lors des IPP, résistant à la méticilline (SARM) est de 12,8% en Europe et 48% aux Etats-Unis.4 La vancomycine est efficace contre une grande majorité de SARM et en accord avec la littérature récente, semble être l'antibiotique le moins toxique pour l'environnement osseux local.5,6 De multiples procédés ont été évalués pour prévenir et traiter les IPP. Le ciment aux antibiotiques est fréquemment utilisé lors des PTG de première intention et lors des chirurgies prothétiques de reprises en deux temps avec des spacers temporaires.7 Les principaux avantages sont : délivrance à des doses bien supérieures que lors de l'administration parentérale et n'entraînant pas de toxicité systémique.8-13 Ils permettent, également, d'atteindre des zones peu vascularisées, inaccessibles aux traitements intra-vein .14,15 Ces dernières années, la tendance est à l'utilisation d'implants métaphysaires non cimentés lors des reprises prothétiques de hanche et de genou.16-18 A l'heure actuelle, sur le marché des implants orthopédiques, plusieurs produits sont disponibles pour ces chirurgies. Les implants 7 de tantale poreux ont été les premiers sur ce marché et de nombreuses séries clinicoradiologiques sont référencées.19-22 Le tantale est un biomatériau très intéressant car il présente une faible raideur, une grande porosité (75-80%). Il est biocompatible et favorise l'ostéointégration.23,24 Tokarski a récemment montré que le taux d'IPP après reprises prothétiques de hanche était plus faible lorsqu'ils utilisaient des implants de reconstruction de tantale que de titane. Ils émettaient que le tantale pourrait avoir des propriétés antibactériennes intrinsèques. La première étude s'intéresse au relargage des antibiotiques en milieu liquide et donc l'étude des courbes d'élution dans le temps. Nos objectifs étaient de comparer le relargage entre (1) des cylindres de tantale et des cylindres lisses de chrome-cobalt, (2) différentes concentrations initiales des bains de vancomycine, (3) des durées d'imprégnation variables des implants. 8 La seconde étude s'intéresse au relargage en milieu solide d'antibiotiques. A notre connaissance, aucune étude n'a évalué le potentiel effet antibactérien des antibiotiques délivrés par des implants de tantale poreux. Ainsi, nos objectifs étaient de comparer (1) la durée moyenne de relargage d'antibiotiques, (2) les Zones d'Inhibitions (ZI) moyennes à chaque intervalle entre des cylindres de tantale poreux imprégnés de vancomycine et des cylindres de ciment chargés de vancomycine (ALBC), (3) d'évaluer le potentiel antibactérien intrinsèque du tantale poreux, lors d'une étude in vitro sur des milieux de diffusion contre le Staphylococcus aureus sensible à la méticilline (SASM). 9 PARTIE 1 : Étude des courbes d'élution des implants de tantale poreux imprégnés de vancomycine. MATERIELS ET METHODES Des cylindres de tantale poreux (1 cm3, poids : 4 grammes) ont été spécialement usinés (Trabecular MetalTM ; Zimmer-Biomet; Warsaw, IN) et stérilisés pour cette étude. Étude des propriétés d'élution de la vancomycine. La première étape s'intéressait à l'étude des propriétés d'élution de la vancomycine à partir de 10 cylindres de tantale imprégnés d'une solution de vancomycine selon le protocole décrit cidessous. La solution de vancomycine [50 mg/mL] était constituée par l'ajout de 20 mL d'eau stérile pour injection (H2O, pH 5.5, osmolarité : 0 mOsmol/L ; Lavoisier, France) à 1 gramme de vancomycine en poudre (Sandoz, France). Chaque cylindre de tantale était placé dans un récipient individuel et complètement recouvert par la solution de vancomycine. Les contenants étaient conservés à température ambiante et la durée de chargement des cylindres était d'une heure. Après cette période de chargement, les cylindres étaient prélevés avec des pinces stériles et immergés dans 5 mL de solution tampon de phosphate salin (PBS : pH 7.4). Pour étudier les propriétés d'élution de la vancomycine, un échantillon de 1,5 mL était prélevé pour chaque cylindre après 1 heure d'immersion. Ensuite, chaque cylindre était transvasé à l'aide de pinces dans un nouveau récipient contenant 5 mL de PBS frais. Ce procédé était répété à J1, J2, J3 et J5 (Figure 1). Dix cylindres lisses de chrome-cobalt (1 cm3) formaient le groupe contrôle et le même protocole était appliqué pour chacun d'eux. 10 Figure 1. La concentration de vancomycine est déterminée par immunofluorescence aux différents intervalles. M cylinder: Metal cylinder Variation de la concentration en vancomycine des bains de chargement. A la suite de cette première étape, l'impact de l'effet « rinçage » ainsi que la modification de la concentration des bains de vancomycine ont été étudiés sur des cylindres de tantale poreux et de chrome-cobalt. Pour évaluer l'effet « rinçage », 10 cylindres de tantale ainsi que 10 cylindres de chrome-cobalt étaient rincés avec 5 mL d'une solution de PBS avant chaque nouvelle immersion dans la solution de PBS. Pour évaluer le taux de saturation en vancomycine, 10 cylindres de tantale et 10 cylindres de chrome-cobalt étaient chargés avec une solution de vancomycine 2 fois plus concentrée (i.e. 2 grammes dilués avec 20 mL d'eau stérile aboutissant à une concentration de [100 mg/mL]). Variation de la durée de chargement. Pour évaluer l'impact du temps d'imprégnation par la vancomycine, trois groupes de 10 cylindres de tantale poreux et de 10 cylindres de chrome-cobalt étaient utilisés. Le temps de 11 chargement était de : 5, 15 et 30 minutes. La concentration des bains était identique à celle du groupe référence, à savoir une concentration de vancomycine de [50 mg/mL]. Le protocole d'élution était identique à celui décrit précédemment et les comparaisons effectuées avec le groupe 1 heure, référent. Pour chaque échantillon, la concentration de vancomycine était mesurée par immunofluorescence polarisée (Cobas Integra 400+ ; Roche Diagnostic, Mannheim, Germany).27 Les échantillons étaient conservés à -40°C et décongelés avant leur analyse. Les valeurs de précision intra et inter-jours variaient de 15%. La valeur limite de détection de vancomycine est de 0,76 mg/L. Le taux de vancomycine était considéré comme bactéricide si la concentration mesurée était supérieure à la concentration minimale inhibitrice (CMI) pour Staphylococcus aureus (i.e. MIC> 2 μg/mL).28 Analyses statistiques. La masse de vancomycine larguée par chaque cylindre aux différents temps d'analyse a été calculée en multipliant la concentration de vancomycine mesurée par le volume constant du bain (i.e. 5 mL). Pour évaluer les propriétés d'élution de la vancomycine, les cylindres de tantale ont été comparés aux cylindres de chrome-cobalt à chaque intervalle d'analyse, en utilisant un test non paramétrique, le test de Wilcoxon. Une différence était considérée comme significative si p < 0,05 avec un intervalle de confiance à 95%. 12 Afin d'évaluer l'effet de la concentration des bains, le groupe « tantale 1 heure » avec les concentrations standards était comparé au groupe avec effet « rinçage » et au groupe double dose avec le test de Wilcoxon. Pour évaluer l'effet de la durée de chargement, les concentrations mesurées étaient comparées entre les groupes 1 heure, 5, 15 et 30 minutes en utilisant le test de Wilcoxon. La taille des échantillons était définie par une analyse post hoc basée sur la concentration du groupe 1 heure à H1 (concentration moyenne 3171,9 ± 25 μg/mL). Notre analyse permettait de distinguer une différence μg/mL entre les groupes avec une puissance de 80%. Nous considérions p< 0,05 comme statistiquement significatif. RESULTATS Étude des propriétés d'élution de la vancomycine. La quantité moyenne de vancomycine relarguée par les cylindres de tantale chargés pendant 1 heure est de 20,8 mg, ce qui représente 2,1% de la quantité présente dans le bain initial (Tableau 1). Initialement, le relargage de vancocmycine par les cylindres de tantale est important. La concentration maximale moyenne observée à la 1ère heure est de 3172 μg/mL (Tableau 2). La concentration décroit exponentiellement (à J3 = 23,12 μg/mL) jusqu'à J5, lorsque le taux de vancomycine devient indétectable (Figure 2). La concentration moyenne de vancomycine du groupe contrôle (cylindres de chrome-cobalt) était de 39,37 μg/mL à la 1ère heure (différence moyenne de 3133 μg/mL avec un IC à 95% [3015−3250]; p<0,0001). A partir de J1, le taux de vancomycine était totalement indétectable pour le groupe des cylindres de chrome-cobalt. Traitement des Nombre cylindres d'échantillons Quantité de vancomycine libérée (mg) 1 heure 24 heures 48 heures 72 heures 5E jour Non rincés 10 15,86 ± 1,26 4,60 ± 0,78 0,20 ± 0,02 0,17 ± 0,02 ND Rincés 10 5,33 ± 0,72 2,33 ± 0,45 0,12 ± 0,02 0,11 ± 0,02 ND <0,0001 P 0,02 0,3 0,5 / Chargement 10 24,72 ± 2,59 4,97 ± 0,92 0,30 ± 0,04 0,13 ± 0,03 ND <0,0001 0,5 0,4 0,7 / Double-dose P Tableau 1. Quantité de vancomycine délivrée par un cylindre de 1 cm3 de tantale poreux, à chaque intervalle. Les valeurs sont exprimées en moyenne ± DS. ND : Non Détectable 14 Ta 5 1 heure Jour 1 Jour 2 Jour 3 Jour 5 2803,46±185,16 258,07±70,51* 19,37±3,13* 4,74±215* ND 2687,53±165,18* 251,88±56,23* 14,93±1,98* 4,27±1,78* ND 2557,61±168,21* 195,28±65,94* 13,26±4,29* 4,11±2,56* ND 3171,9±252,6 919,64±156,3 38,92±4,38 23,12±3,57 ND 1065,23±95.56* 466,20±213,77* 23,72±4,76 21,87±1,49 ND 25,1±5,61 ND minutes Ta 15 minutes Ta 30 minutes Ta 1 heure non rincés Ta 1 heure rincés Ta 1 heure 4943,35±278,45** 994,83±173,98 59,73±9,84 Doubledose Tableau 2. Concentration moyenne de vancomycine exprimée en μg/mL. * Durée des bains d 'imprég nation résultant à des concentrations de vancomycine inférieures au groupe référence 1 heure (tous p<0.001) ** Durée des bains d'imprégnation résultant à des concentrations de vancomycine supérieures au groupe référence 1 heure ( p<0,05). Ta Variation de la concentration en vancomycine des bains de chargement. La quantité de vancomycine relarguée par les cylindres de tantale rincés était inférieure à la quantité relarguée par les cylindres qui n'ont pas été rincés (Tableau 1). Cependant, cette différence décroît au cours de l'expérience et, à J5, cylindres rincés et non-rincés ne relarguaient plus de vancomycine. La quantité de vancomycine relarguée par le groupe des cylindres chargés avec une solution double-dose ([100 mg/mL]) était significativement plus élevée (24.717 mg) que la quantité de vancomycine relarguée par les cylindres de tantale chargés (15.86 mg) avec la solution standard de vancomycine ([50 mg/mL]) à 1 heure (p < 0.0001). De même, la différence s'amenuisait au cours de l'expérience et le taux de vancomycine était indétectable à J5 pour tous les groupes. A J1, le taux de vancomycine était totalement indétectable pour le groupe des cylindres de chrome-cobalt, quel que soit la concentration des bains ou du rinçage. Figure 2. Courbes pharmaco-cinétiques d'élution de la vancomycine à partir de cylindres de tantale poreux, en fonction de la dose initiale d'antibiotique, du rinçage. Les concentrations de l'antibiotique sont exprimées en μg/mL. 16 Variation de la durée de chargement. La concentration moyenne de vancomycine délivrée par les cylindres de tantale imprégnés de vancomycine pendant des durées plus courtes, respectivement 5, 15 et 30 minutes, était significativement moins importante comparativement au groupe de référence 1 heure (p <0,001 à chaque intervalle excepté pour le groupe 5 minutes à 1 heure). A J1, les concentrations moyennes de vancomycine étaient de 258.07 μg/mL (bain de 5 minutes), 251.88 μg/mL (15 minutes) et 195.28 μg/mL (30 minutes) (Tableau 1et Figure3). La concentration moyenne pour chaque groupe diminuait exponentiellement ensuite. A J1, le taux de vancomycine était totalement indétectable pour le groupe des cylindres de chromecobalt, quel que soit la durée d'imprégnation des cylindres (p <0,001). Figure 3. Courbes pharmaco-cinétiques d'élution de la vancomycine à partir de cylindres de tantale poreux, en fonction de la durée des bains de chargement. Les concentrations d'antibiotiques sont exprimées en μg/mL. 17 DISCUSSION Alors que le ciment chargé aux antibiotiques est utilisé par la majorité des chirurgiens orthopédistes lors de l'implantation des prothèses de genou de première intention et lors des révisions en deux temps, la tendance récente est la fixation métaphysaire non-cimentée permettant une fixation biologique à long terme. Dans cette étude, nous avons cherché à déterminer si des antibiotiques pouvaient être délivrés via des implants de tantale poreux. Lors de cette évaluation in vitro, nous avons été capables de montrer que des cylindres de tantale ont la capacité de relarguer de la vancomycine pendant 4 jours. Ces cylindres libèrent de manière bien supérieure à des cylindres lisses de chrome-cobalt également imprégnés d'antibiotiques. De plus, la concentration de vancomycine mesurée était dépendante de la durée d'imprégnation des cylindres par l'antibiotique ainsi que de la concentration des bains. Le taux d'antibiotiques à la 1ère heure était le plus élevé et diminuait ensuite exponentiellement. Le taux important initial était probablement lié au relargage des molécules de vancomycine restant en surface des cylindres. Cette courbe est similaire à celle retrouvée dans les études s'intéressant à l'élution des antibiotiques à partir du ciment ou du ciment phospho-calcique.29,30 Dans notre étude, un cylindre de tantale de 1 cm3 est capable d'absorber et relarguer 20 mg du gramme initial de vancomycine. Inversement, concernant le groupe contrôle des cylindres de chrome-cobalt, seule une trace négligeable de vancomycine était détectable à la 1ère heure et indétectable à la 24ème heure. A notre connaissance, cette étude est la première à analyser les propriétés d'élution à partir de cylindres de tantale, ce qui limite les comparaisons avec d'autres études déjà publiées. 29,30 18 Les résultats de notre étude montrent que, même rincés, les cylindres de tantale délivrent de manière significative de la vancomycine pendant 4 jours. Les concentrations mesurées au 3e jour sont supérieures à la CMI du Staphylococcus aureus (2 μg/mL).28 Cela signifie que la vancomycine délivrée peut avoir une activité thérapeutique au moins 3 jours, cylindres rincés. Cette observation confirme notre hypothèse quant au fait que la quantité initiale de vancomycine délivrée est liée aux molécules situées à la surface des cylindres et dans les anfractuosités des pores. Cliniquement, ce rinçage in vitro pourrait se comparer au flux sanguin et au lavage effectué lors de la pose d'implants prothétiques, sans modifier excessivement la libération des molécules d'antibiotiques. Les bes d'élution du groupe double-dose de vancomycine montraient des concentrations supérieures uniquement à la 1ère heure, par rapport au groupe simple dose. Les travées des cylindres de tantale semblent être saturées par une certaine quantité de vancomycine et l'excès d'antibiotique reste en surface des implants. La durée d'imprégnation des cylindres par la vancomycine peut avoir une implication clinique essentielle pour les chirurgiens lors du temps opératoire de la pose des implants. Dans cette étude, la durée de référence était de 1 heure, mais nous l'avons comparée à différentes durées : 5, 15 et 30 minutes aux mêmes concentrations de vancomycine. Bien que nous n'ayons pas retrouvé de différences entre les 3 groupes (5, 15 et 30 minutes) aux différents intervalles, toutes les concentrations étaient significativement plus faibles que le groupe 1 heure. Cependant, il est important de noter que les concentrations mesurées -pour les groupes 5,15 et 30 minutes- à tous les intervalles étaient supérieures à la CMI du Staphylococcus aureus.28 19 La limite principale de cette étude est que les résultats in vitro pourrait ne pas refléter le relarguage in vivo de la vancomycine. Cependant, notre méthodologie est robuste avec l'étude de concentrations différentes de vancomycine étudiée, des durées de bains variées et l'évaluation de l'effet rinçage. Le protocole de base de notre étude est similaire à certains déjà publiés et validés dans la littérature.29-31 La seconde limite, est que nous avons étudié un seul antibiotique, la vancomycine. Le traitement des infections ostéo-articulaires inclut un panel d'antibiotiques plus large, et des études futures permettront de réaliser ces mêmes expériences avec différents antibiotiques. Également, nous n'avons étudié qu'un seul type de biomatériau actuellement utilisé en orthopédie pour combler les pertes osseuses lors des reprises prothétiques. Des études similaires devront être menées à l'avenir avec d'autres biomatériaux. En conclusion, le principal résultat de notre étude est que des cylindres de tantale poreux sont capables de relarguer de la vancomycine in vitro à des doses bien supérieures à celles relarguées par des cylindres de chrome-cobalt. Des concentrations plus élevées de vancomycine ont été retrouvées lorsque la concentration des bains d'imprégnation était plus grande, que les cylindres n'étaient pas rincés et lorsque l'imprégnation était de 1 heure. L'ensemble des résultats est encourageant notamment pour les chirurgies complexes de 1ère intention et les chirurgies de reprises, où la fixation biologique métaphysaire est essentielle et le risque infectieux plus important. PARTIE 2 : Étude des propriétés antibactériennes des implants de tantale poreux imprégnés de vancomycine. MATERIELS ET METHODES Afin d'étudier les propriétés antibactériennes des implants de tantale poreux chargés d'antibiotiques, 10 cylindres en Trabecular Metal (1 cm3, 4 grammes), étaient spécifiquement usinés par le laboratoire Zimmer (Warsaw, Indiana, USA). Tous les cylindres étaient stérilisés avant le début de l'expérience. Les solutions de chargements étaient préparées en ajoutant à 1 gramme de vancomycine en poudre (Sandoz, Holzkirchen, Allemagne), 20 mL d'eau stérile pour injection (H2O, pH 5.5, osmolarité 0 mOsmol/L, Lavoisier, France). Ensuite, chaque cylindre était immergé dans la solution de vancomycine dans un récipient individuel durant une heure, à température ambiante. Dix cylindres de ciment chargés aux antibiotiques (1 cm3) ont été créés pour former notre principal groupe contrôle (Palacos bone cement; Heraeus Kulzer GmbH, Wehrheim, Allemagne). La préparation des cylindres était standardisée en utilisant des moules stériles. Une dose de 40 grammes de poudre de Poly(méthyl méthacrylate) était utilisée. Un gramme de vancomycine en poudre était ajouté au ciment. Le mélange était fait à la main dans un récipient pendant 30 secondes. Ensuite, la phase liquide (20 mL de monomère méthyl méthacrylate) était ajoutée et l'ensemble était de nouveau mélangé pendant 60 secondes. Encore pâteux, la préparation du ciment était déposée dans les moules afin de créer des cylindres de 1 cm3. Parallèlement, un cylindre de tantale poreux était chargé pendant 1 heure dans une solution d'eau stérile (H2O, pH 5.5, osmolarité 0 mOsmol/L, Lavoisier, France) et un autre cylindre 21 était plongé une solution tampon de phosphate alcalin (PBS), constituant des groupes contrôles et limitant les biais de mesures (Figure 1). Agent bactérien SASM SASM Groupe cylindres imprégnés 10 cylindres de tantale 10 cylindres de ciment avec poreux avec une solution de une 1 dose de vancomycine vancomycine 50 mg/mL (1 gramme pour 40 g de PMMA) Groupe contrôle PBS 1 cylindre de tantale poreux 1 cylindre de ciment Groupe contrôle ESI 1 cylindre de tantale poreux 1 cylindre de ciment Figure 1 : Schéma de l'étude. SAMS : Staphylococcus aureus Sensible à la Méticilline. PBS : solution tampon de phosphate salin. ESI : Eau stérile pour injection. PMMA : polymère de poly(méthacrylate de méthyle). Les échantillons étaient testés pour inhiber la souche Staphylococcus aureus Sensible à la Méticilline (SASM), sur milieux de diffusion. Les souches de S. aureus étaient confirmées comme étant sensibles juste avant l'expérience. Des géloses Mueller-Hinton étaient inoculées avec une solution contentant 0,5 MacFarland de SASM, à l'aide d'un écouvillon en coton stérile. Pour déterminer l'activité antibactérienne, les cylindres de tantale et ciment étaient déposés au centre des géloses chaque échantillon était placé en utilisant des pinces stériles. Les géloses étaient mises à incuber à 37°C pendant 1 heure. Quotidiennement, chaque échantillon était 22 prélevé et déposé sur une nouvelle plaque inoculée afin de simuler une nouvelle « attaque bactérienne ». Toutes les manipulations ont été réalisées sous une hotte à flux laminaire. Chaque jour, la zone d'inhibition (ZI) était analysée : le diamètre était mesuré en millimètre en utilisant un pied à coulisses et automatiquement (Scan 1200- Interscience). Le diamètre des cylindres (10 mm) était soustrait à la mesure de la ZI. Afin d'évaluer la reproductibilité intra et inter-observateurs de nos mesures, les ZI mesurées avec le pied à coulisses ont été réalisées deux fois par le même observateur entraîné (intra-observateurs) et comparé aux mesures automatiques (inter-observateurs). Des photographies hautes-définitions des géloses étaient réalisées quotidiennement. Les coefficients de corrélations inter-classe (inter et intraobservateurs) montraient une reproductibilité presque parfaite pour la mesure des ZI (ICC 0.97 [0.94-1] and ICC 0.97 [0.95-1] respectivement. Analyse statistique Les paramètres étudiés étaient exprimés en moyenne et déri standard. Les différences entre les deux groupes étaient évaluées en utilisant un test non paramétrique dû à la taille de notre échantillon. A partir de données déjà publiées sur les ZI du ciment aux antibiotiques, notre échantillon de cylindres était suffisant pour distinguer une différence de > 3 mm avec une déviation standard attendue de 2 mm et une puissance statistique > 90%. RESULTATS Les implants de tantale poreux imprégnés de vancomycine peuvent inhiber l'agent bactérien SAMS pendant au moins 12 jours alors que le relargage de la vancomycine par les cylindres de ciment se faisait sur 9 jours (Figure 2 et 3). 23 Les ZI moyennes décroissaient exponentiellement pour les deux groupes. Le groupe des cylindres de tantale imprégné d'antibiotique avait une ZI moyenne significativement plus importante que celle du groupe des cylindres de ciment chaque jour (p<0,05 ; Figure 4). Au 1er jour, la ZI moyenne était de 28,6 mm pour le groupe des cylindres de tantale imprégnés de vancomycine et était de 19,8 mm pour le groupe ALBC (p<0,05). Au 4e jour, la ZI moyenne était de 15,6 mm pour le groupe des cylindres de tantale imprégnés de vancomycine et était de 10,7 mm pour le groupe ALBC (p<0,05). Au 8e jour, la ZI moyenne était de 7,8 mm pour le groupe des cylindres de tantale imprégnés de vancomycine et était de 5,0 mm pour le groupe ALBC (p<0,05). Au 10e jour, la ZI moyenne était de 3,8 mm pour le groupe des cylindres de tantale imprégnés de vancomycine et était de 0 mm pour le groupe ALBC (p<0,05) (Figure 4 et tableau 1). Les implants de tantale imprégnés avec de l'eau stérile montraient un effet d'inhibition pour seulement deux jours, alors que le groupe contrôle de cylindres de tantale imprégnés avec du PBS ne montraient aucune inhibition (Tableau 1). 24 Figure 2 : Cylindres de tantale poreux imprégnés de vancomycine déposés sur des géloses Mueller-Hinton, inoculées à Staphylococcus aureus sensible à la méticilline. Les ZI sont mesurées en millimètres quotidiennement (i.e, le diamètre des cylindres, 10 mm, était soustrait) 25 Figure 3 : Cylindres de ciment aux antibiotiques déposés sur des géloses Mueller-Hinton, inoculées à Staphylococcus aureus sensible à la Méticilline. Les ZI sont mesurées en millimètres quotidiennement (i.e, le diamètre des cylindres, 10 mm, était soustrait) 26 Figure 4 : Moyennes des ZI des cylindres de tantale et ciment exprimés en millimètres. 27 Echantillons J1 J2 J 3 J 4 J 5 J 6 J 7 J 8 J9 J10 J11 J12 ZI moyenne des 28.6 23.2 19.8 15.6 13.2 11.2 9.4 7.8 6.6 3.8 2.1 0.7 19.8 17.7 14.2 10.7 10.5 10 8 5 2 0 / / p p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<10-4 p<0,05 NS Tantale poreux + 20 15 0 / / / / / / / / / 0 0 / / / / / / / / / / cylindres de Ta (mm) ZI moyenne des cylindres de ciment (mm) ESI (mm) Tantale poreux + PBS (mm) Tableau 1 : Moyenne des ZI exprimées en millimètres. ESI : Eau stérile pour injection. PBS : solution tampon de phosphate salin. NS : non significatif. DISCUSSION Les implants de tantale poreux bénéficient, depuis quelques années, d'un intérêt scientifique grandissant de la part de la communauté orthopédique.25, 32, 33, 34 Récemment, le taux d'infections péri-prothétiques après chirurgie de reprises prothétiques de hanche avec des implants de tantale était plus faible que lorsque des implants de titane étaient utilisés.25 Les auteurs concluaient que le tantale pourrait avoir des propriétés intrinsèques antibactériennes. Ils étayaient leur propos avec trois hypothèses : le tantale permet une meilleure ostéointégration que les implants en titane ce qui oblitérerait les espaces morts ; la structure microscopique du tantale ainsi que la présence de charges à sa surface seraient hostiles aux agents microbiens. La possibilité que le tantale ait des propriétés intrinsèques antibactériennes a été étudiée encore plus récemment par Harrison et al.26 A partir de ces études, nous avons émis l'hypothèse que des implants de tantale pourraient délivrer des antibiotiques en milieu solide et l'utilisation future d'implants imprégnés diminuerait le taux d'infection périprothétiques. Ainsi, nos objectifs étaient de comparer (1) la durée moyenne de relargage d'antibiotiques, (2) les Zones d'Inhibitions (ZI) moyennes à chaque intervalle entre des cylindres de tantale poreux imprégnés de vancomycine et des cylindres de ciment chargé de vancomycine (ALBC), (3) d'évaluer le potentiel antibactérien intrinsèque du tantale poreux, lors d'une étude in vitro sur des milieux de diffusion contre le Staphylococcus aureus sensible à la méticilline (SASM). Nos résultats démontrent que les cylindres de tantale chargés de vancomycine peuvent inhiber et délivrer des antibiotiques pendant au moins 12 jours dans un milieu de diffusion. De plus, les moyennes de ZI chaque jour était significativement plus importante dans le groupe des cylindres de tantale imprégnés de vancomycine que dans le groupe ALBC. Notre protocole présente deux limites majeures : en tant qu'expérience in vitro de relargage d'antibiotiques par des cylindres de tantale, d'un modèle in vivo, le comportement des molécules d'antibiotiques délivrés au sein d'une articulation par ces implants ne peut être qu'une approximation. Nous notons que les milieux de diffusion enrichis (i.e. géloses Mueller-Hinton) ne représentent pas exactement l'environnement in vivo. Secondairement, nous sommes incapables de déterminer la concentration exacte de vancomycine présente au sein des cylindres de tantale avant qu'ils ne soient placés sur les géloses. Comme la concentration des bains de vancomycine ([50 mg/mL]) était équivalente pour chaque bain et les cylindres identiques, nous estimons que tous les cylindres étaient chargés par la même quantité d'antibiotiques. Malgré ces limites, il s'agit d'une étude contrôlée avec des cylindres de ciment aux antibiotiques qui demeure le gold standard pour prévenir les infections périprothétiques.35 Notre protocole était basé sur la mesure quotidienne des zones d'inhibition par une réglette millimétrée et une mesure automatique. La reproductibilité inter et intraobservateurs des mesures était jugée comme presque parfaite par le calcul des coefficients de corrélation intra-classe.36 Le diamètre des ZI diminuait chaque jour, démontrant que les cylindres de tantale poreux libéraient de la vancomycine jusqu'à épuisement. Peu d'études se sont intéressées au potentiel d'inhibition d'un biomatériau imprégné d'antibiotique envers un agent bactérien. Chang et al rapportaient les résultats d'une étude in vitro de cylindres de ciments chargés en antibiotiques (1 gramme de vancomycine pour 40 g de ciment PMMA) contre le SASM.37 Les résultats montr une inhibition pendant deux jours. Leur protocole était sensiblement différent du nôtre : chaque cylindre de ciment était immergé dans un récipient contenant du PBS et quotidiennement, le surnageant était prélevé, alors que du PBS frais remplaçait le liquide soustrait. L'activité antibactérienne était déterminée par la technique de micro-dilution en milieu liquide. Plus récemment, Yuenyongviwat et al décrivaient les effets d'inhibition de la vancomycine envers le SARM à 30 partir de spacers en ciment.38 Ils concluaient que le ciment avait une activité antibactérienne durant quatre semaines. De même, ils collectaient les surnageants à partir d'un protocole d'élution des échantillons, qui étaient ensuite déposés sur des géloses ensemencées. Cependant, les doses d'antibiotiques étaient différentes entre nos deux études (4 grammes pour chacun de leurs spacers pour 1 gramme pour l'ensemble de notre préparation). Or comme l'a démontré l'étude de Chang, la durée de l'activité bactérienne dépend de la dose initiale d'antibiotique. Nous pensons qu'une seule goutte de solution contenant des molécules d'antibiotiques peut inhiber un germe sur une faible surface en conditions in vitro. Nous avons préféré utiliser un échantillon solide (les cylindres de tantale et ciment), qui a été imprégné d'antibiotique uniquement le premier jour. Nous pensons que notre protocole permet une estimation plus proche des conditions in vivo. Un des principaux avantages des antibiotiques délivrés localement est qu'ils peuvent être administrés à des concentrations bien supérieures que par voie parentérale, sans toxicité systémique.7, 9, 10, 35, 39 De plus, ces concentrations élevées permettent d'atteindre des zones avasculaires, non atteintes lorsque les antibiotiques sont délivrés par voie intra-veineuse ou bien résistantes aux concentrations trop faibles.14, 40 En 2006, Schildauer démontrait que les agents bactériens S. aureus et S. épidermidis adhéraient moins fortement sur le tantale pur, que sur le titane et les alliages d'inox.34 Harrison et al. ont réalisé une étude en laboratoire pour évaluer propriétés antibactériennes intrinsèques du tantale à l'encontre des germes S. aureus et S. épidermidis et la capacité du tantale d'inhiber le biofilm bactérien.26 Des implants de titane formaient le groupe contrôle. Leur évaluation était basée sur la quantification de colonies formées sur des géloses après inoculation des implants par les germes. Ils n'ont pas pu démontrer de supériorité du tantale sur le titane pour inhiber la formation du biofilm. Finalement, ils rejetaient l'hypothèse émise par Parvizi et al sur les possibles propriétés intrinsèques du tantale Dans notre étude, pour 31 évaluer ces propriétés intrinsèques du tantale, nous avons utilisé 2 groupes contrôles : un cylindre de tantale poreux était imprégné avec de l'eau stérile pour injection (solution hypotonique) et un second avec une solution tampon saline de phosphate (solution isotonique). Les échantillons étaient déposés sur des géloses inoculées avec du SAMS. Respectivement, il existait une faible inhibition durant 48 heures et aucune inhibition pour le second échantillon. Nous expliquons l'inhibition par le tantale imprégné de solution hypotonique par l'hémolyse induite sur les cellules. Comme Harrison, nous pensons que le tantale poreux ne possède pas de propriétés intrinsèques antibactériennes permettant d'inhiber la croissance de germes.26 En conclusion, nous avons pu démontrer que des implants de tantale poreux pouvaient délivrer des antibiotiques sur une longue période en milieu solide inoculé avec un agent bactérien. REFERENCES 1. Kurtz S, Ong K, Lau E, Mowat F, Halpern M. Projections of primary and revision hip and knee arthroplasty in the United States from 2005 to 2030. J Bone Joint Surg Am. 2007;89-4:780-5. 2. Abdel MP, Ledford CK, Kobic A, Taunton MJ, Hanssen AD. Contemporary failure aetiologies of the primary, posterior-stabilised total knee arthroplasty. Bone Joint J. 2017 May;99-B(5):647-652. 3. Zimmerli W, Trampuz A, Ochsner PE. Prosthetic-joint infections. N Engl J Med. 2004;351-16:1645-54. 4. Aggarwal VK, Bakhshi H, Ecker NU, Parvizi J, Gehrke T, Kendoff D. Organism profile in periprosthetic joint infection: pathogens differ at two arthroplasty infection referral centers in Europe and in the United States. J Knee Surg. 2014 Oct;27(5):399-406. 5. Edin ML, Miclau T, Lester GE, Lindsey RW, Dahners LE. Effect of cefazolin and vancomycin on osteoblasts in vitro. Clin Orthop Relat Res. 1996 Dec;(333):24551. 6. Antoci V Jr, Adams CS, Hickok NJ, Shaprio IM, Parvizi J. Antibiotics for local delivery systems cause skeletal cell toxicity in vitro. Clin Orthop Relat Res. 2007 Sep;462:200-6. 7. Hanssen AD, Osmon DR, Patel R. Local antibiotic delivery systems: where are we and where are we going? Clin Orthop Relat Res. 2005-437:111-4. 8. Duncan CP, Masri BA. The role of antibiotic-loaded cement in the treatment of an infection after a hip replacement. Instructional course lectures. 1995;44:305-13. 9. Seyral P, Zannier A, Argenson JN, Raoult D. The release in vitro of vancomycin and tobramycin from acrylic bone cement. J Antimicrob Chemother. 1994;33-2:337-9. 10. Adams K, Couch L, Cierny G, Calhoun J, Mader JT. In vitro and in vivo evaluation of antibiotic diffusion from antibiotic-impregnated polymethylmethacrylate beads. Clin Orthop Relat Res. 1992-278:244-52. 11. Gonzalez Della Valle A, Bostrom M, Brause B, Harney C, Salvati EA. Effective bactericidal activity of tobramycin and vancomycin eluted from acrylic bone cement. Acta Orthop Scand. 2001;72-3:237-40. 12. Nelson CL, Griffin FM, Harrison BH, Cooper RE. In vitro elution characteristics of commercially and noncommercially prepared antibiotic PMMA beads. Clin Orthop Relat Res. 1992-284:303-9. 13. Sterling GJ, Crawford S, Potter JH, Koerbin G, Crawford R. The pharmacokinetics of Simplex-tobramycin bone cement. J Bone Joint Surg Br. 2003;85-5:646-9. 14. Hanssen AD, Spangehl MJ. Practical applications of antibiotic-loaded bone cement for treatment of infected joint replacements. Clin Orthop Relat Res. 2004-427:79-85. 15. Cierny G, 3rd. Infected tibial nonunions (1981-1995). The evolution of change. Clin Orthop Relat Res. 1999-360:97-105. 16. Meneghini RM, Lewallen DG, Hanssen AD. Use of porous tantalum metaphyseal cones for severe tibial bone loss during revision total knee replacement. J Bone Joint Surg Am.2008;90-1:78-84. 17. Girerd D, Parratte S, Lunebourg A, Boureau F, Ollivier M, Pasquier G, Putman S, Migaud H, Argenson JN. Total knee arthroplasty revision with trabecular tantalum cones: Preliminary retrospective study of 51 patients from two centres with a minimal 2-year follow-up. Orthop Traumatol Surg Res. 2016 Jun;102(4):429-33. 34 18. Kamath AF, Lewallen DG, Hanssen AD. Porous tantalum metaphyseal cones for severe tibial bone loss in revision knee arthroplasty: a five to nine-year follow-up. J Bone Joint Surg Am. 2015 Feb 4;97(3):216-23. 19. Howard JL, Kudera J, Lewallen DG, Hanssen AD. Early results of the use of tantalum femoral cones for revision total knee arthroplasty. J Bone Joint Surg Am. 2011 Mar 2;93(5):478-84 20. Potter GD 3rd, Abdel MP, Lewallen DG, Hanssen AD. Midterm Results of Porous Tantalum Femoral Cones in Revision Total Knee Arthroplasty. J Bone Joint Surg Am. 2016 Aug 3;98(15):1286-91. 21. Bobyn JD, Poggie RA, Krygier JJ, Lewallen DG, Hanssen AD, Lewis RJ, Unger AS, O'Keefe TJ, Christie MJ, Nasser S, Wood JE, Stulberg SD, Tanzer M. Clinical validation of a structural porous tantalum biomaterial for adult reconstruction. J Bone Joint Surg Am 2004;86-A Suppl 2:123-9. 22. Wegrzyn J, Kaufman KR, Hanssen AD, Lewallen DG. Performance of Porous Tantalum vs. Titanium Cup in Total Hip Arthroplasty: Randomized Trial with Minimum 10-Year Follow-Up. J Arthroplasty. 2015 Jun;30(6):1008-13. 23. Cohen R. A porous tantalum trabecular metal: basic science. Am J Orthop (Belle Mead NJ) 2002;31-4:216-7. 24. Welldon KJ, Atkins GJ, Howie DW, Findlay DM. Primary human osteoblasts grow into porous tantalum and maintain an osteoblastic phenotype. J Biomed Mater Res. 2008;84-3:691-701. 25. Tokarski AT, Novack TA, Parvizi J. Is tantalum protective against infection in revision total hip arthroplasty? Bone Joint J. 2015 Jan;97-B:45-9. 26. Harrison PL, Harrison T, Stockley I, Smith TJ. Does tantalum exhibit any intrinsic antimicrobial or antibio 35 27. Domke I, Cremer P, Huchtemann M. Therapeutic drug monitoring on COBAS INTEGRA 400--evaluation results. Clin Lab. 2000;46(9-10):509-15. 28. European committee on antimicrobial susceptibility testing. Recommandations 2017. 29. Penner MJ, Masri BA, Duncan CP. Elution characteristics of vancomycin and tobramycin combined in acrylic bone-cement. J Arthroplasty. 1996 Dec;11(8):939-44. 30. Sasaki T, Ishibashi Y, Katano H, Nagumo A, Toh S. In vitro elution of vancomycin from calcium phosphate cement. J Arthroplasty. 2005 Dec;20(8):1055-9. 31. Amin TJ, Lamping JW, Hendricks KJ, McIff TE. Increasing the elution of vancomycin from high-dose antibiotic-loaded bone cement: a novel preparation technique. J Bone Joint Surg Am. 2012 Nov 7;94(21):1946-51. 32. Jenkins DR, Odland AN, Sierra RJ, Hanssen AD, Lewallen DG. Minimum FiveYear Outcomes with Porous Tantalum Acetabular Cup and Augment Construct in Complex Revision Total Hip Arthroplasty. J Bone Joint Surg Am. 2017;17;99(10). 33. Flecher X, Appy B, Parratte S, Ollivier M, Argenson JN. Use of porous tantalum components in Paprosky two and three acetabular revision. A minimum five-year follow-up of fifty one hips. Int Orthop. 2017;41(5):911-916 34. Schildhauer TA, Robie B, Muhr G, Koller M. Bacterial adherence to tantalum versus commonly used orthopedic metallic implant materials. J Orthop Trauma. 2006;20-7:476-84 35. Chen AF, Parvizi J. Antibiotic-loaded bone cement and periprosthetic joint infection. J Long Term Eff Med Implants. 2014;24(2-3):89-97. 36 36. Hombach M, Zbinden R, Böttger EC. Standardisation of disk diffusion results for antibiotic susceptibility testing using the sirscan automated zone reader. BMC Microbiol. 2013; 8;13:225. 37. Chang Y, Chen WC, Hsieh PH, Chen DW, Lee MS, Shih HN, Ueng SW. In vitro activities of daptomycin-, vancomycin-, and teicoplanin-loaded polymethylmethacrylate against methicillin-susceptible, methicillin-resistant, and vancomycin-intermediate strains of Staphylococcus aureus. Antimicrob Agents Chemother. 2011;55(12):5480-4. 38. Yuenyongviwat V, Ingviya N, Pathaburee P, Tangtrakulwanich B. Inhibitory effects of vancomycin and fosfomycin on methicillin-resistant Staphylococcus aureus from antibiotic-impregnated articulating cement spacers. Bone Joint Res. 2017;6(3):132-136. 39. Gonzalez Della Valle A, Bostrom M, Brause B, Harney C, Salvati EA. Effective bactericidal activity of tobramycin and vancomycin eluted from acrylic bone cement. Acta Orthop Scand. 2001;72-3:237-40. 40. Cierny G, 3rd. Infected tibial nonunions (1981-1995). The evolution of change. Clin Orthop Relat Res. 1999;360:97-105 Au moment d'être admis(e) à exercer la médecine, je promets et je jure d'être fidèle aux lois de l'honneur et de la probité. Mon premier souci sera de rétablir, de préserver ou de promouvoir la santé dans tous ses éléments, physiques et mentaux, individuels et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou leur dignité. Même sous la contrainte, je ne ferai usage de mes connaissances contre les lois de l'humanité. J'informerai les patients des décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer les consciences. Je donnerai mes soins à l'indigent et à quiconque me les demandera. Je ne me laisserai pas influencer par la soif du gain ou la recherche de la gloire. Admis(e) dans l'intimité des personnes, je tairai les secrets qui me seront confiés. Reçu(e) à l'intérieur des maisons, je respecterai les secrets des foyers et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances. Je ne prolongerai pas abusivement les agonies. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire à l'accomplissement de ma mission. Je n'entreprendrai rien qui dépasse mes compétences. Je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide à mes confrères ainsi qu'à leurs familles dans l'adversité.
27,016
12/pastel.archives-ouvertes.fr-pastel-00004851-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,057
13,341
Étude de la rétention des radionucléides dans les résines échangeuses d'ions des circuits d'une centrale nuclé Jury M. Wolfgang Höll Président M. Michel Sardin Rapporteur M. Michel Fédoroff Rapporteur M. Hubert Catalette Examinateur M. Martin Bachet Examinateur Mme. Hélène Schneider M. Jan van der Lee Examinatrice Examinateur Avant propos A Grand-père qui aurait été fier de son petit-fils Une thèse ne saurait débuter sans les classiques remerciements alors je cède moi aussi à cette tradition. C'est un Merci avec un grand M que j'adresse à Hubert Catalette et à Jan van der Lee. Et aussi bravo. Car il a fallu me convaincre de faire cette thèse à la suite de mon stage de fin d'étude Mais comme on non rien de rien, non ne regrette rien », car ces années u jongler entre deux bureaux, deux équipes et des disponibilités pas toujours compatibles. J'espère avoir été à la hauteur et je les remercie donc de m'avoir offert l'opportunité de m'épanouir dans mon travail et de m'avoir ouvert ma voie vers des horizons qui concilient ma sympathie pour la production avec mon goût de la recherche. Merci aussi à Hélène Schneider pour ses relectures attentives et ses conseils tout au long de ces trois années et à Martin Bachet pour toutes nos discussions passionnantes sur les mystères (qui n'en sont (presque) plus) de l'échange ionique. Merci aussi pour tout le reste et ton attention soutenue au cours de ces trois ans. J'adresse aussi un chaleureux merci à Perrine Carrer pour l'apport très important de son travail à la réalisation de cette thèse et pour son dévouement, sa pugnacité et sont intérêt à remplir les objectifs élevés que nous lui avions fixés. Je te souhaite bonne chance dans ta carrière qui débute. Je voudrais remercier Michel Sardin, Michel Fédoroff et Wolfgang Höll d'avoir accepté de participer à mon jury de thèse et de juger mon travail. Mais cette thèse n'aurait pas été ce qu'elle est sans le concours du labo chimie d'EDF, et notamment Patricia Vigne, Laurent Mercier, Claire Lemarchand et Cécile Bourriaux. Merci à Régis Michel de son écoute et de sa compréhension des priorités. Plus généralement, j'adresse ma profonde gratitude à tout le groupe T29 car je pense que chacun m'a, une fois au moins, renseigné et conseillé. Merci à Pascal Mialon puis Christophe Varé de m'avoir accueilli à EDF, et à Emmanuel Ledoux puis Damien Goetz de m'avoir accueilli au CIG puis au Centre de Géosciences. De même, j'ai particulièrement apprécié la disponibilité et la qualité des réponses de Vincent Lagneau et de Laurent De Windt concernant la modélisation. Il va m'être difficile de remercier toutes celles et ceux que j'ai côtoyés pendant ces trois ans et demi autour d'un café, d'un thé, d'un muffin, d'un bon repas Merci à Sylvain, Hadrien, Sanae, Stéphanie, Raoul, Carine, Zhao, Laure, Anaïs, Pär, Jorgen, Gilles, Amadou, Lucie, Diane, Romain, Sabine, Olivier, David, Stéphanie, Noëlia, Raphaël (à ceux que j'oublie ici : merci aussi) Enfin, un immense merci à celle qui partage mon coeur et vie pour m'avoir soutenu, aidé, corrigé, supporté, écouté, enduré pendant ces trois ans. A moi maintenant de faire pareil Résumé Le maintien des qualités physico-chimiques des fluides en mouvement dans les circuits des centrales nucléaires est essentiel afin de limiter la contamination de ces circuits et de diminuer les débits de doses associés aux arrêts de tranche. Cependant, un optimum doit être trouvé entre limitation des rejets liquides et diminution des volumes de déchets solides générés, tout en conservant des coûts d'exploitation maîtrisés. Pour assurer ce rôle, les circuits de purification font appel à des résines échangeuses d'ions. Au cours de cette thèse, différents types de résines ont été caractérisés (capacité d'échange, rétention d'eau et d'électrolytes) et leurs sélectivités vis-à-vis des ions Co2+, Ni2+, Cs+ et Li+ ont été étudiées. Il a ainsi été montré que la sélectivité de deux résines échangeuses de cations varie en fonction de la nature et de la concentration des contre-ions qu'elles contiennent. De plus, l'impact du débit de traitement, donc de l'hydrocinétique, sur la rétention des espèces en colonne a été caractérisé : plus le débit est élevé et plus la fuite ionique (concentration de sortie rapportée à la concentration de la solution influente) est précoce et s'accompagne d'un étalement du front de sortie des éléments de la colonne. Une revue de la littérature a permis de mettre en évidence les avantages et limitations des principaux modèles d'intérêt pour la simulation du fonctionnement des résines. Ainsi, le modèle par mélange de pôles purs associé à une description de la non-idéalité de la phase résine par un modèle de solutions régulières est retenu pour la modélisation de l'équilibre de l'échange d'ions. La cinétique de l'échange d'ions est décrite par une approche via des coefficients de transfert de masse. Grâce à l'acquisition expérimentale des paramètres des modèles, ces derniers ont pu être implémentés dans le code de spéciation chimique CHESS, lui-même couplé à un module hydrodynamique au sein de HYTEC. Ceci a rendu possible la simulation des expériences de rétention des éléments, d'une part à l'équilibre thermodynamique et, d'autre part, lors des tests de rétention en colonne. Enfin, l'impact prévisionnel de la variation des sélectivités des résines échangeuses d'ions ainsi que de l'hydrocinétique a été étudié sur plusieurs cas tests afin de montrer l'importance de cette prise en compte lors de la simulation du fonctionnement des résines échangeuses d'ions. Abstract Physico-chemical quality of fluids in nuclear plant circuits must be maintained in order to limit contamination and dose rate especially when the shutdown takes place. Nevertheless, an optimum between diminishing liquid waste and limiting solid waste production has to be reached, but at affordable costs. Ion-exchange resins of purification circuits are used to fulfil this goal. In this work, different resin types have been characterized (exchange capacity, water and electrolyte sorption) and their selectivity towards Co2+, Ni2+, Cs+ and Li+ cations have been studied. We have shown that the two cation-exchange resins selectivity varies according to the nature and concentrations of their counter-ions. Moreover, flow rate (and thus hydrokinetics) impact on species retention in a column has been characterized: the more the flow rate, the more the ionic leakage (output concentration divided by input concentration) is fast and the more the output concentration front is spread. A literature revue has enabled to put in light advantages and drawbacks of the models of interest to simulate operations of ion-exchange resins. Thus, the pure end-members mixing model associated to a non-ideality description of the resin phase based on the regular solutions model has been retained for modelling ion-exchange equilibrium. Ion-exchange kinetics has been described by mass transfer coefficients. Using the experimental results to determine model parameters, these last ones have been implemented in a speciation code CHESS, coupled with a hydrodynamic code in HYTEC. On the one hand, equilibrium experiments of ion retention have been simulated and, on the other hand, column retention tests have been modelled. Finally, selectivity variations and hydrokinetics impacts have been simulated on some test cases so as to demonstrate the importance of taking these into account when simulating ion-exchange resins operations. I. INTRODUCTION 1 I.1. LES DIFFERENTES PHASES DE FONCTIONNEMENT 2 I.1.1. Fonctionnement en puissance 2 I.1.2. Mise en arrêt à froid 3 I.2. LE CIRCUIT RCV 4 I.3. LE CIRCUIT TEU 6 I.4. OBJECTIFS DE LA THESE 7 II. CARACTERISATION DES RESINES ECHANGEUSES D'IONS 11 II.1. QU'EST-CE QU'UN ECHANGEUR IONIQUE? 11 II.2. ABSORPTION D'EAU ET D'ELECTROLYTES 13 II.2.1. Mise en évidence de la sorption d'eau et mesure du taux d'humidité 13 II.2.2. Le potentiel de Donnan 15 II.2.3. Sorption d'électrolyte 16 II.2.3.1. Régénération 16 II.2.3.2. Relargage de chlorures 17 Evolution du pH 17 Dosage des anions relargués 18 II.3. LA CAPAC D'ECHANGE 21 II.3.1. Protocole par dosage en retour 22 II.3.1.1. Résultats obtenus 23 II.3.1.2. Origine et quantification des incertitudes 23 II.3.2. Protocole « Rohm&Haas » 25 II.3.2.1. Description du protocole 25 II.3.2.2. Résultats obtenus 25 II.3.2.3. Origine et quantification des incertitudes 25 II.3.3. Comparaison des deux protocoles 26 II.4. SYNTHESE 28 III. PRESENTATION DES DIFFERENTS MODELES D'ECHANGE IONIQUE 29 III.1. ORIGINE DE LA SELECTIVITE 29 III.2. LES MODELES DE L'ECHANGE D'IONS 30 III.2.1. Modèle de mélange de pôles purs 30 III.2.2. Différents formalismes d'écriture de l'échange ionique 32 III.2.2.1. Formalisme de Vanselow 32 III.2.2.2. Formalisme de Gaines-Thomas 34 III.2.2.3. Formalisme de Gapon 35 III.2.2.4. Choix du formalisme d'étude de l'échange ionique 36 III.2.3. Les différents modèles de prise en compte de l'activité des espèces sorbées : état de l'art 37 III.2.3.1. Description directe de la variation du coefficient de sélectivité en fonction de l'état de saturation des résines 38 Modèle à trois paramètres 38 Modèle de Soldatov 40 III.2.3.2. Calcul des activités des espèces sorbées 41 Modèle d'Argersinger 41 Expression de l'énergie libre de Gibbs en excès 43 Modèle de Wilson 44 Modèle des solutions régulières 46 Modèle des solutions subrégulières 48 Modèles basés sur la complexation de surface 48 Modèle de Stern 49 Modèle à sites multiples 51 III.2.4. Les différents modèles de prise en compte de la cinétique d'échange ionique : état de l'art 53 III.2.4.1. Mécanisme de l'échange ionique 53 III.2.4.2. Etape limitante 54 III.2.4.3. Approche par coefficient de transfert de masse 56 III.2.4.4. Les équations de Nernst-Planck appliquées à la diffusion dans le film 58 III.2.5. Présentation de CHESS : modélisation de l'échange d'ions 61 III.3. LES MODEL ES DE PRISE EN COMPTE DE L'HYDRODYNAMIQUE 63 III.3.1. Présentation du code couplé chimie-transport HYTEC 64 III.3.2. Présentation de l'outil d'aide à la gestion des REI : OPTIPUR 66 III.4. SYNTHESE 68 i IV. ETUDE EXPERIMENTALE DE L'ECHANGE D'IONS 69 IV.1. ETUDE EXPERIMENTALE DE LA CINETIQUE DE L'EQUILIBRE D'ECHANGE D'IONS PAR LES REI 69 IV.1.1. Etude de la cinétique d'échange du cobalt sur la résine IRN 97H 70 IV.1.2. Etude de la cinétique d'échange du césium sur IRN 97H 72 IV.1.3. Etude de la cinétique d'échange du lithium sur IRN 97H : impact de la neutralisation des H+ libérés par la réaction d'échange d'ions 73 IV.2. DETERMINATION EXPER ALE DES SELECTIVITES DES RESINES : ETUDE DE LA VARIATION DU COEFFICIENT DE SELECTIVITE DES RESINES IRN 97H ET ARC 9654 74 IV.2.1. Etude des échanges binaires sur les résines ARC 9654 et IRN 97H 75 IV .2.1 .1. Etude de l'échange du chlorure de nickel 75 IV.2.1.2. Etude de l'échange du chlorure / nitrate de cobalt 79 IV.2.1.3. Etude de l'échange du chlorure de césium 81 IV.2.1.4. Etude de l'échange de l'hydroxyde de lithium 83 Représentation des isothermes de sorption 87 IV .2.2. Etude des échanges ternaires sur les résines IRN 97H et ARC 9654 88 IV . 2.2.1. Etude de l'échange chlor ure de nickel / nitrate de c obalt sur ARC 9654 89 IV.2.2.2. Etude de l'échange chlorure de césium / hydroxyde de lithium sur IRN 97H 91 IV.2.3. Conclusions intermédiaires sur les variations des sélectivités des résines 93 IV.3. ETUDE DE L'HYDRODYNAMIQUE 95 IV.3.1. Rétention du cobalt par une colonne garnie de résine échangeuse de cations IRN 97H 96 IV.3.2. Etude de la rétention du nickel dans des solutions contenant du cobalt et de l'argent dans un milieu primaire (acide borique – lithine) par la résine ARC 9654 103 IV.3.3. Conclusions sur la rétention des espèces ioniques par des colonnes de résines échangeuses d'ions 107 IV.4. SYNTHESE 109 V. MODELISATION DES ECHANGES 111 V.1. MODELISATION DE LA CINETIQUE EN BATCH 111 V.2. MODELISATION DES EXPERIENCES D'EQUILIBRE BINAIRE EN BATCH : CHOIX DU MODELE 114 V.2.1. Choix du formalisme d'étude 114 V.2.2. Modélisation de la variation du coefficient de sélectivité 115 V.2.2.1. Modèle TPM 115 V.2.2.2. Modèle de Soldatov 117 V.2.2.3. Modèle de Melis 118 V.2.2.4. Modèle de Wilson 119 V.2.2.5. Modèles des solutions régulières et subrégulières 119 V.2.3. Calcul des coefficients d'activité des ions sorbés 122 V.2.4. Conclusions 123 V.3. MODELISATION DES ISOTHERMES DE SORPTION 124 V.3.1. Echange du nickel et de l'hydrogène sur la résine ARC 9654 125 V.3.2. Echange du césium et de l'hydrogène sur la résine IRN 97H 128 V.4. IMPACT DE LA VARIATION DU COE FFICIENT DE SELECTIVITE SUR LA RETENTION EN COLONNE LORS D'ECHANGES BINAIRES 130 V.4.1. Modélisation à l'équilibre de la rétention du cobalt par la résine IRN 97H 130 V.4.2. Simulation à l'équilibre de la rétention du nickel et du césium sur la résine ARC 9654 : cas tests 131 V.4.2.1. Simulation à l'équilibre de la rétention du nickel par la résine ARC 9654 à un pH = 2 131 .4.2.2. Simulation à l'équilibre de la rétention du césium par la résine IRN 97H 133 V.5. MODELISATION DES EXPERIENCES D'ECHANGES TERNAIRES EN BATCH 134 V.5.1. Modélisation de la variation du coefficient de sélectivité 135 V.5.1.1. Expérience d'échange ternaire H/Co/Ni sur la résine ARC 9654 135 V.5.1.2. Expérience d'échange ternaire H/Cs/Li sur la résine IRN 97H 136 V.5.2. Modélisation de l'isotherme de sorption de l'échange ternaire du nickel, du cobalt et de l'hydrogène sur la résine ARC 9654 137 V.5.3. Simulations à l'équilibre de la rétention des éléments dans un mélange ternaire : exemple de la rétention du nickel et du cobalt par la résine ARC 9654 140 V.6 . MODELISATION DE L'HYDROCINETIQUE ET DE L'IMPACT DU DEBIT DE TRAITEMENT 141 V . 6.1. Modélisation des expériences de sorption du chlorure de cobalt par la résine IRN 97H à trois débits différents 142 V.7. SYNTHESE 145 VI. CONCLUSIONS ET PERSPECTIVES 147 ii ANNEXES 153 ANNEXE I. CALCUL DES COEFFICIENTS D'ACTIVITE DES IONS SORBES ET DE LA CONSTANTE THERMODYNAMIQUE D'ECHANGE SELON LA METHODE D'ARGERSINGER 155 ANNEXE II. TABLEAUX DES CONSTANTES THERMODYNAMIQUES D'ECHANGE DE BONNER ET COLL 161 ANNEXE III. PRINCIPE DE LA DETECTION DES METAUX PAR ANALYSE ICP-AES OU ICP-MS 163 ANNEXE IV. PROTOCOLES D'ETUDE DES REI 167 ANNEXE V. CALCUL DES INCERTITUDES EXPERIMENTALES LORS DES EXPERIENCES DE SORPTION EN BATCH : EXEMPLE DE L'ECHANGE DU NICKEL SUR LA RESINE MACROPOREUSE ARC 9654 173 ANNEXE VI. CALCUL DU VOLUME EQUIVALENT POUR LES TESTS DE RETENTION DU COBALT PAR UNE COLONNE DE RESINE IRN 97H 177 ANNEXE VII. POINTS EXPERIMENTAUX DES ECHANGES BINAIRES ET TERNAIRES SUR LES RESINES IRN 97H ET ARC 9654 179 ANNEXE VIII. FICHE TECHNIQUE DE LA RESINE ECHANGEUSE DE CATIONS DE TYPE GEL IRN 97H 185 ANNEXE IX. FICHE TECHNIQUE DE LA RESINE ECHANGEUSE DE CATIONS MACROPOREUSE ARC 9654 (IDENTIQUE A 252 RF) 187 ANNEXE X. FICHE TECHNIQUE DE LA RESINE MACROPOREUSE A LITS MELANGES IRN 9882 189 BIBLIOGRAPHIE 191 LISTES DES SYMBOLES ET ABREVIATIONS 197 LISTE DES FIGURES 199 LISTE DES TABLEAUX 203 iii iv I Introduction I. Introduction L'énergie a toujours constitué un des facteurs clés du développement économique mondial. Elle représente en ce sens un enjeu politique important car il en va de l'indépendance et de la souveraineté d'un pays. C'est ainsi que dans les année 1970, face au premier choc pétrolier, la France a décidé de se doter de moyens de production d'électricité d'origine nucléaire. Un effort considérable a été entrepris afin de construire les 58 tranches nucléaires du parc de production d'électricité français géré par EDF (de 1977 à Fessenheim jusqu'en 1999 et la mise en service de la tranche 2 de Civaux). A l'heure de la reprise des constructions de nouvelles centrales comme le réacteur EPR de Flammanville, il ne faut cependant pas oublier que les tranches en fonctionnement sont dans une optique de prolongement de leur durée de vie. Figure 1. Schéma succinct des trois circuits principaux d'une centrale nucléaire à eau sous pression. 1 I.1. Les différentes phases de fonctionnement La contamination du circuit primaire des CNPE provient principalement de la corrosion des parois métalliques (cuve de réacteur, tuyaux, pompes, bâches de récupération). La conséquence est qu'une fraction des éléments constitutifs des aciers va se solubiliser et ainsi progressivement charger en ions métalliques le fluide primaire en s'y accumulant, car il circule en circuit fermé. Lors de leur passage dans le coeur nucléaire, lieu de la réaction en chaîne, une fraction de ces ions s'active en absorbant une partie du rayonnement neutronique et forment des radioisotopes qui sont appelés les produits d'activation. Par ailleurs, dans le cas d'une rupture de gaine, une partie des produits de fission se répandra dans le circuit primaire (notamment du césium-137) pour s'y accumuler. I.1. Les différentes phases de fonctionnement I.1.1. Fonctionnement en puissance La description exhaustive du fonctionnement des réacteurs REP et de l'impact des conditions d'exploitation sur la physico-chimie du fluide primaire a été effectuée par Lannick Elain dans sa thèse [Elain, 2004]. Nous reprenons ici les principales conclusions qui seront utiles à notre étude. Dans le but de limiter la production et le transport des produits de corrosion dans le fluide primaire, le pH de ce dernier est ajusté à une valeur de pH300°C = 7,2. En effet, le pH de neutralité de l'eau évolue de 7 à une valeur de 5,7 lorsque la température passe de 25°C à 300°C. Comme la réaction neutronique est modérée par de l'acide borique, l'acidité du fluide primaire est encore renforcée (même si l'acide borique est un acide faible de pKA = 9,2). C'est pourquoi le pH est tamponné à l'aide de lithine (LiOH) enrichie à 99,9 % en 7Li pour des raisons de sections efficaces de capture très faible par rapport à l'isotope 6Li qui s'active en tritium selon la réaction suivante : 6 3 Li + 01n U 13 H + 24 He (1) De plus, le potentiel d'oxydo-réduction du fluide primaire est maintenu à des valeurs faibles par ajout d'hydrogène afin de limiter les phénomènes de corrosion. En effet, sous l'action des rayonnements ionisants dans le coeur nucléaire, l'eau est partiellement décomposée par radiolyse, ce qui engendre la formation de radicaux. Ces derniers sont recombinés par l'agent réducteur introduit. Les calculs de spéciation effectués par Elain sont résumés dans la suite et ont pu être partiellement validés par les analyses effectuées lors d'une campagne de mesure sur le ré 1 de la centrale de Penly en 1995. Les éléments nickel, fer, cobalt, manganèse et zinc seraient majoritairement sous leur forme libre M2+, le chrome se répartirait entre plusieurs formes hydrolysées solubles et une phase insoluble de chromite de zinc. En revanche, l'argent et le cuivre devraient être fortement insolubilisés en conditions réductrices. Le retour d'expériences montre que ces éléments possèdent une solubilité apparente qui peut être attribuée à la présence de particules colloïdales dans le circuit primaire. Ces colloïdes peuvent être soit constitués de l'élément en question, soit constitués de fer et nickel (les deux principaux cations du fluide primaire) avec les autres éléments sorbés à leur surface. I Introduction L'apparente solubilité de ces composés provient du fait qu'ils ne sont ni retenus par les filtres en entrée de traitement (car leur taille est inférieure à un micromètre) ni retenus par les REI (car ils sont peu ou pas chargés). I.1.2. Mise en arrêt à froid Il existe plusieurs autres phases de fonctionnement en puissance qui ont une faible influence sur la physico-chimie du fluide primaire : lors du démarrage, la teneur en acide borique est élevée donc le pH est plus acide que 7,2. A l'inverse, en phase de prolongation de cycle, le pH augmente légèrement. Ceci ne possède qu'une faible influence sur le comportement des espèces. En revanche, en moyenne tous les 18 mois, le réacteur nécessite d'être arrêté afin d'effectuer les opérations de maintenance et le rechargement en combustible du coeur nucléaire. Les conditions physico-chimiques du fluide primaire s'en trouvent totalement bouleversés car d'un milieu réducteur à légèrement basique, ce fluide passe à des conditions acides et oxydantes. En effet, la convergence du réacteur est obtenue par addition d'une forte concentration en acide borique neutrophage, ce qui a pour conséquence la diminution du pH. De plus, le ballon RCV est mis en balayage à l'air après avoir injecté du peroxyde d'hydrogène dans le circuit primaire afin d'atteindre une valeur en oxygène dissous correspondant à celle en équilibre avec l'air. Tableau 1. Teneurs en cations métalliques du fluide primaire de la centrale de Fessenheim 1 lors de la campagne de mesures de 2002. Concentrations avant et après l'oxygénation [Elain, 2004]. Avant oxygénation Eléments B Li Ni Fe Cr Mn(a) Sb(a) Ag(a) Co(b) (a) (b) Après oxygénation toxy = -150 min Emes,25 = -80 mV/ENH pHcalc,25 = 5,24 toxy = +20 min Emes,25 = +430 mV/ENH pHcalc,25 = 5,66 toxy = +930 min Emes,25 = +640 mV/ENH pHcalc,25 = 5,25 Concentration mesurée mol/kg 0,2064 5.10-5 1,49.10-5 7,36.10-6 1,92.10-8 1,59.10-7 2,55.10-8 1,85.10-9 8,65.10-11 Concentration mesurée mol/kg 0,2064 4,86.10-5 1,09.10-4 1,63.10-6 1,92.10-8 1,54.10-7 9,53.10-8 9,67.10-9 1,76.10-9 Concentration mesurée mol/kg 0,2045 1,14.10-5 4,16.10-5 7,16.10-8 2,88.10-7 6,13.10-8 1,97.10-8 1,36.10-7 6,11.10-10 Eléments dont les teneurs ont été mesurées sur des échantillons filtrés (filtre de porosité 0,45 μm). Concentrations du cobalt déduites des activités mesurées en 58Co et en 60Co. 3 I.2. Le circuit RCV Les résultats présentés dans le tableau 1 sont issus de la campagne de mesure menée sur le réacteur de Fessenheim 1 en 2002 [Elain, 2004]. Les changements drastiques des conditions physico-chimiques ont pour conséquence une solubilisation massive du nickel, du cobalt, du manganèse et de l'argent sous la forme majoritairement d'ions libres Mn+. Le fer serait quant à lui partiellement insolubilisé selon le potentiel redox de la solution et les phases minérales qui précipitent. Enfin, le chrome resterait majoritairement sous forme d'oxyde. En conclusion, nous pouvons constater qu'il y a une solubilisation massive de nickel lors de la phase de mise en arrêt à froid, dont l'épuration constitue l'un des défis du redémarrage du réacteur. En effet, l'élément nickel est le principal cation de la solution après le lithium, voire même l'élément le plus concentré lors du pic de concentration obtenu juste après l'oxygénation. Après ce bref aperçu des conditions physico-chimiques du fluide primaire selon l'état de fonctionnement de la tranche nucléaire, nous pouvons constater qu'il y a un besoin d'épurer ce fluide afin de maintenir au plus bas la dosimétrie du circuit primaire afin de protéger les travailleurs, et également de retenir les produits activateurs de la corrosion afin de protéger l'intégrité du circuit. C'est pourquoi le circuit primaire, mais aussi le circuit secondaire ou la piscine de désactivation, sont équipés de circuits de purification. Ils sont, en général, situés en dérivation des circuits principaux afin de traiter tout ou partie du fluide en question. Nous allons exposer brièvement le rôle et le fonctionnement du circuit de Contrôle Volumétrique et Chimique (RCV) ainsi que du circuit de Traitement des Effluents és (TEU). I.2. Le circuit RCV La purification du fluide contenu dans le circuit primaire est effectuée de manière continue pendant le fonctionnement de la centrale ainsi que pendant les arrêts de tranche. Environ 3,5 % du fluide total est dévié par heure (soit un débit de traitement de l'ordre de 10 m3/h) vers le circuit de contrôle volumétrique et chimique (circuit RCV) dont le rôle est de retenir les impuretés et de maintenir les conditions physico-chimiques ainsi que le volume total du circuit primaire. Comme nous pouvons le voir sur la figure 2, le fluide primaire est refroidi jusqu'à une température comprise entre 25 et 45°C et dépressurisé jusqu'à la pression atmosphérique à l'aide d'échangeurs thermiques. Puis, le fluide subit une première filtration (indice RCV 01 FI) sur des cartouches filtrantes qualifiées pour retenir plus de 99,8 % des particules en suspension dont le diamètre est supérieur à un micromètre. A la suite de ce premier traitement, le fluide percole dans deux bidons successifs (dits « déminéraliseurs ») garnis de résines échangeuses d'ions (REI). Le premier bidon est en réalité doublé pour des raisons liées à la sûreté, c'est le principe de la redondance. En effet, il faut pouvoir assurer une continuité de fonctionnement de ce circuit donc l'un des deux déminéraliseurs (RCV 01 ou 02 DE) est en fonctionnement tandis que l'autre est chargé de la même résine. Ainsi, chaque ligne de traitement est dimensionnée afin de pouvoir traiter la totalité du débit RCV, l'autre étant mise en route en cas de défaillance ou d'atteinte du critère de changement des REI. Ces bidons sont garnis de résines à lits mélangés obtenus par mélange intime d'une résine échangeuse d'anions avec le même nombre d'équivalents de résine échangeuse de cations. Ces lits mélangés sont lithiés, c'est-à-dire que la résine échangeuse de cations est 4 I Introduction convertie sous la forme 7Li+ tandis que la résine échangeuse d'anions est sous la forme hydroxyde OH-. Le lithium est utilisé afin de ne pas modifier le pH du circuit primaire (conditionné sous forme acide borique – lithine) et il est utilisé sous son isotope 7Li qui ne produit pas de radio-isotope par réaction nucléaire. Figure 2. Schéma de principe du circuit RCV sur le palier 900 Mwe [Bellue, 2007]. 5 I.3. Le circuit TEU I.3. Le circuit TEU Ce circuit est composé de quatre sous-circuits drainant la totalité des effluents liquides générés dans le bâtiment réacteur et dans le bâtiment des annexes nucléaires (BAN), afin de ne pas rejeter de radioactivité vers l'extérieur (principe du confinement). Le rôle de ce circuit de purification est donc la rétention des radioisotopes contenus dans les effluents avant le rejet de ces deniers. Les effluents usés sont collectés sélectivement en fonction de leur activité et de leurs caractéristiques chimiques pour être stockés puis traités. • Sous l'effet de la forte pression du circuit primaire (155 bars), il existe des points de "fuites", notamment les joints de pompes primaires (le bilan de fuites primaires est de l'ordre de 10 à 20 L/h). Ces fuites, mais aussi les vidanges des circuits, sont récupérées dans le circuit TEU résiduaire. Ainsi, les « drains résiduaires » ont une qualité « eau primaire ». Ils sont, de plus, oxygénés et non pollués chimiquement. Ces drains sont traités sur un ensemble filtration - déminéralisation avant rejet, pour réduction de l'activité. Leur production est de l'ordre de 1000 m3/an et par tranche pour le palier 900 MWe. P P • Les effluents chimiques correspondent à de l'eau du circuit primaire qui est polluée chimiquement par d'autres éléments que le bore et le lithium. Ils sont notamment générés par les laboratoires d'analyses situés dans la centrale nucléaire, mais aussi lors de la décontamination des circuits. Ils sont traités par évaporation. Les distillats sont rejetés après contrôle tandis que les concentrats contiennent le bore et l'activité. Ces derniers sont enfûtés dans des coques en béton et stockés pendant 30 ans au centre de stockage de Soulaines. La radioactivité est ainsi concentr au sein d'un déchet solide. • Les drains de plancher et de servitudes (laveries, lavabos, douches) sont généralement non actifs, ce qui autorise leur rejet, après filtration réglementaire et contrôle. Le fonctionnement du circuit TEU n'est pas continu car les effluents à traiter sont stockés dans des bâches de 30 m3. De plus, le fluide est déjà à température ambiante et à la pression atmosphérique. Avant leur traitement, les effluents sont mis en brassage dans la bâche grâce à la mise en recirculation du fluide en court-circuitant la chaîne de traitement. 6 I Introduction Figure 3. Schéma de principe du circuit TEU sur le palier 900 Mwe [Bellue, 2007]. La spéciation des éléments chimiques dans ce circuit est considérée identique à celle du fluide primaire après l'oxygénation. Cependant, comme la bâche de récupération n'est pas brassée en permanence, il est fort probable que le fluide ne soit pas totalement à l'équilibre avec l'atmosphère. Des données détaillées des différents constituants de ce fluide ne sont pas disponibles car l'exploitation du circuit TEU ne nécessite que la connaissance du sodium, du calcium et de l'activité totale du fluide à traiter. Ainsi, nous ferons l'hypothèse que la spéciation est identique à celle présentée par Elain lors de la mise en arrêt à froid et résumée ci-dessus. I.4. Objectifs de la thèse Des efforts importants ont été effectués par les CNPE afin de diminuer leurs rejets de radionucléides et leur production de déchets solides. Ceci est passé par une optimisation empirique des méthodes de mise en oeuvre des circuits de purification adaptée à la 7 I.4. Objectifs de la thèse particularité de chaque site. Dans un souci d'harmonisation des pratiques et afin d'aller maintenant plus loin dans la compréhension des phénomènes qui limitent l'efficacité de la purification des circuits des CNPE, un projet de R&D concernant l'optimisation des rejets et des déchets des CNPE a été mis en place. Dans cette thèse, nous nous intéressons aux résines échangeuses d'ions car elles constituent le coeur du processus d'épuration. Ainsi, le facteur de décontamination visé (c'est-à-dire la concentration en entrée de traitement divisée par la concentration en sortie) dépend très majoritairement de l'efficacité de la rétention des espèces solubles par les REI. L'épuration vise tout à la fois à protéger le circuit des espèces induisant la corrosion des structures, à limiter la dosimétrie du fluide primaire afin de diminuer le débit de dose du circuit primaire mais aussi à limiter les effluents liquides avant leur rejet. De plus, l'exploitation de ces circuits réside dans la recherche de l'optimum entre quantité de résines utilisées (qui doivent être évacuées en tant que déchets nucléaires moyennement actifs) et activité des effluents en sortie des chaînes de traitement. Cet optimum doit prendre en compte le cadre réglementaire des arrêtés de rejets mais aussi la composante économique liée à l'évacuation et au stockage des résines usées (qui s'avère être très supérieur au prix d'achat des REI). A l'heure actuelle, les REI contenues dans les circuits RCV et TEU sont changées en moyenne tous les trois ans. Si elles étaient utilisées de manière optimale, elles pourraient être maintenue en service plus longtemps (de l'ordre de quelques mois à un an supplémentaire), à conditions de connaître et de maîtriser leur comportement. Pour cela, il faudrait une meilleure caractérisation des fluides qui sont traités par ces circuits, ce qui est une des actions engagées par EDF sur l'ensemble de son parc de réacteurs nucléaires. Par ailleurs, il est nécessaire d'approfondir la connaissance du fonctionnement des résines échangeuses d'ions afin de mettre en avant les mécanismes pertinents qui limitent l'efficacité de la purification, ce qui est entrepris dans cette thèse. 9 I.4. Objectifs de la thèse 10 II Caractérisation des résines échangeuses d'ions II. Caractérisation des résines échangeuses d'ions II.1. Qu'est-ce qu ' un échangeur i onique? Un matériau échangeur ionique possède la faculté d'échanger des ions contenus en son sein avec les ions contenus dans la solution aqueuse qui est mise en contact avec lui. Le phénomène d'échange d'ions a été mis en évidence en 1845 par deux chimistes anglais (H.S.M Thompson et J.Spence) qui ont constaté qu'en faisant percoler une solution de sulfate d'ammonium à travers une colonne en verre garnie de terre, la solution obtenue en sortie de colonne était du sulfate de calcium. L'échange d'ions a été beaucoup étudié par les minéralogistes à propos des argiles [Appelo, 1993]. Dans ces matériaux constitués de feuillets superposés les uns sur les autres, des cations se trouvent dans l'espace interfoliaire afin de compenser les charges négatives issues de la substitution des ions de structure par des ions de moindre charge. C'est ce phénomène d'échange d'ions qui explique par exemple la sodification des sols des polders aux Pays-Bas : par la suite du pompage des nappes d'eau des aquifères, des infiltrations d'eau de mer salée par le sous-sol traversent les couches d'argiles encadrant l'aquifère. Les ions calcium de ces dernières sont alors échangés pour des ions sodium. En conséquence, les sols deviennent plus sodiques (ce qui est moins favorable à leur utilisation en agriculture) jusqu'à ce que les argiles aient échangé la totalité de leurs ions calcium ce qui fait tendre les aquifères à devenir salés et impropres à la consommation. CH CH2 CH + Cl N (CH3)2 + Cl N (CH3)2 CH2 CH CH2 CH CH2 CH CH2 CH SO3- H+ SO3- + H CH CH2 CH SO3- H + Figure 4. Structure d'une résine anionique forte sous forme Cl- (gauche) et d'une résine cationique forte sous forme H+ (droite). Dans les années 1950, des analogues synthétiques des argiles échangeuses de cations ont vu le jour sous la forme de « résines échangeuses d'ions ». Ces matériaux sont constitués de chaînes polymères qui sont réticulées entre elles par des agents spécifiques. Par la suite, des groupements échangeurs, qui sont partiellement ou totalement ionisés dans l'eau, sont greffés sur le squelette polymère afin de rendre le matériau échangeur d'ions. Ces groupements sont des acides ou des bases, faibles ou forts. Les résines échangeuses d'ions utilisées actuellement pour l'épuration des fluides des différents circuits des centrales nucléaires sont constituées 11 II.1. Qu'est-ce qu'un échangeur ionique? d'un squelette polystyrénique dont les chaînes de polymères sont réticulées par du divynilbenzène (DVB). Les noyaux benzéniques sont fonctionnalisés par des acides sulfoniques dans le cas des résines échangeuses de cations ou bien par des ammoniums quaternaires dans le cas des résines é changeuses d'anions. Il faut noter que seules les résines échangeuses de cations possèdent des groupements fonctionnels sur le DVB, l'encombrement stérique des ammoniums quaternaires étant trop important [Soldatov, 2003]. 0,5 mm 0,5 mm Figure 5. Photographie d'une coupe d'un lit de billes de résine de type gel calibré IRN 97H (à gauche) et de résine de type macroporeuse ARC 9654 (au milieu). Les résines échangeuses de cations (encore appelées résines « cationiques ») portent donc des charges négatives dans leur squelette qui sont compensées par des ions Na+ ou H+, qui sont appelés « contre-ions » (ions de charge contraire aux charges fixées sur la résine). De même, les résines échangeuses d'anions (ou « résines anioniques ») portent des charges positives sur leur squelette qui sont compensées par des ions Cl- ou OH-. Les REI utilisées dans les réacteurs nucléaires exploités par EDF sont livrées sous forme H+ ou bien OH- afin de ne pas incorporer d'ions qui vont soit s'activer dans le coeur nucléaire, soit contribuer à augmenter la corrosion globale des circuits (à l'exception des résines lithiées enrichies en 7Li utilisées dans le circuit primaire afin de maintenir la teneur en lithium qui contrôle le pH). Tableau 2. Principales caractéristiques des résines étudiées. IRN 97H ARC 9654 45 – 49 % 52 – 58 % 10 % 12 % 2,74 meq/g - 2,16 eq/L 2,27 meq/g - 1,68 eq/L Diamètre des billes1 525 ± 25 μm 600 – 800 μm 0,9 g/mL 0,85 g/mL Rétention d'eau1 1 % DVB 3 2 "densité" 1 valeur donnée par le fabricant 2 masse de résine hydratée par mL du système « résine + eau » 3 déterminée selon le protocole «Rohm&Haas [Elain, 2004] » Enfin, pour un même taux de réticulation, une résine peut être soit de type « gel » soit « macroporeuse ». Dans le cas d'une résine « gel », les pores de cette dernière sont très petits, Caractérisation des résines échangeuses d'ions généralement de l'ordre de 1 à quelques dizaines de nanomètres. Pour une résine macroporeuse, un agent « porogène » est incorporé lors de la synthèse du polymère puis détruit à la fin de la réticulation, ce qui crée des vides dans la structure amenant à une distribution de taille des pores située entre 10 et 100 nm. Il existe également des résines « supermacroporeuses » possédant des pores dont la taille peut aller jusqu'à quelques micromètres. Les résines étudiées au cours de cette thèse sont la résine échangeuse de cations de type gel IRN 97H et la résine échangeuse de cations de type macroporeuse ARC 9654. Les fiches techniques de ces résines sont présentées en annexe et leurs principales caractéristiques sont rappelées dans le tableau 2. II.2. Absorption d'eau et d'électrolytes Les résines échangeuses d'ions utilisées ici sont constituées d'un squelette en polystyrène réticulé qui peut s'apparenter à une pelote de laine. Cette structure macroscopique présente donc un pourcentage de vide élevé (volume des « trous » de la structure rapporté au volume total de la bille). C'est dans cet espace dit « poral » que vont se trouver l'eau de constitution de la résine, les contre-ions et le cas échéant, les co-ions ainsi que le solvant dans lequel la bille de résine est plongée. En effet, lors de la polymérisation de la structure, de l'eau de structure est « emprisonnée » au contact des groupements fonctionnels dissociés. De plus, l'espace poral se remplit d'eau provenant du milieu externe, ce qui permet aux ions de pénétrer dans la résine. Enfin, les solutés de la solution aqueuse pourront également pénétrer à l'intérieur du réseau macromoléculaire par un phénomène de diffusion. II.2.1. Mise en évidence de la sorption d'eau et mesure du taux d'humidité Lorsque la résine est plongée dans une solution aqueuse, le solvant eau pénètre à l'intérieur des billes de résine et les fait gonfler. Cette sorption d'eau est d'autant plus favorisée que les groupements fonctionnels de la résine sont très hydrophiles car ils sont ionisés. Helfferich [Helfferich, 1962] présente une étude de l'équilibre résine - vapeur d'eau pour des humidités relatives variant de 0 à 100 % et pour des résines échangeuses de cations de type gel possédant des taux de réticulation s'étalant de 0,25 à 24 % de DVB. Il représente la sorption d'eau, en millimoles par gramme de résine sèche, en fonction de l'humidité relative de la vapeur et montre que la quantité d'eau sorbée dépend fortement de la pression partielle de l'eau dans la vapeur ainsi que du taux de réticulation de la résine (figure 6). En effet, plus la résine est réticulée et plus elle est rigide donc plus elle oppose de résistance à la déformation de son squelette. Par ailleurs, plus la quantité d'eau dans le milieu extérieur est importante et plus la force motrice de la sorption s'accroît. L'équilibre est atteint lorsque les forces supplémentaires de déformation du réseau tridimensionnel exercées par l'eau sorbée égalent la tension de rappel des chaînes polymères qui se déforment comme un ressort. Cet équilibre se traduit par une pression osmotique due à la sorption d'eau. Par extension de ces conclusions, nous pouvons intuiter que l'eau n'est pas le seul composant de la solution à pénétrer dans le réseau macromoléculaire de résine : tout composé neutre (nous verrons au paragraphe II.2.2 13 II.2. bsorption d'eau et d'électrolytes l'impact de la charge d'une espèce sur sa sorption) est donc susceptible de pénétrer dans la résine par équilibre osmotique. La détermination précise du taux d'humidité de la résine est très importante afin de pouvoir caractériser finement l'état de référence de la résine utilisé au cours de ce travail. De plus, la mise au point d'un protocole de mesure de la quantité de résine introduite dans chacune des expériences le plus précis possible est essentielle afin de diminuer les incertitudes expérimentales inhérentes à tout travail de laboratoire. Comme nous venons de le voir, une résine peut sorber une grande quantité d'eau dans son réseau macromoléculaire. Figure 6. Isotherme de sorption de l'eau vapeur pour des résines échangeuses de cations de type polystyrène sulfonate gel. Représentation de la quantité d'eau sorbée en fonction de l'humidité relative (PW/P) pour différents taux de réticulation [Helfferich, 1962]. Ainsi, il est beaucoup plus intéressant de mesurer la quantité de résine sous forme humide, partiellement ou totalement hydratée. Pour ce faire, une fois les résines conditionnées et stockées en eau ultrapure (cf II.2.3.1), elles sont séchées à l'aide d'une centrifugeuse avant leur pesée et leur introduction dans les béchers expérimentaux. La pesée de la quantité de résine utilisée est une méthode plus précise que la détermination du volume de cette dernière, en particulier sur des volumes de l'ordre de 0,5 mL utilisés pour ce travail. L'utilisation d'une technique standard comme la centrifugation permet, d'une part, d'avoir une bonne répétabilité des résines d' des des d opérateurs dans d'autres laboratoires. Le protocole de pesée consiste à mettre une masse approximativement égale à 0,5 gramme de résine humide, préalablement débarrassée de l'eau adhérente aux billes grâce à un séchage sur un entonnoir de Büchner, dans un godet pourvu d'un filtre et d'un récipient. Le tout est passé dans une centrifugeuse à 5000 tr/min pendant 5 minutes (soit l'équivalent de 2500 g). La résine est alors pesée dans les instants qui suivent l'arrêt de la centrifugeuse afin d'éviter qu'elle ne sorbe ou qu'elle ne perde de l'eau selon les conditions atmosphériques ambiantes. Sur la base de huit expériences différentes, le taux d'humidité (pourcentage en masse d'eau d'une bille de résine) de la résine ARC 9654 est déterminé égal à 0,576. L'écart type sur sa mesure est de 0,002. Nous voyons ici que ce protocole de conditionnement de la résine avant sa pesée est très précis dans la détermination taux d'humidité et que nous retrouvons une valeur conforme à la spécification du fabricant. De plus, la répétabilité des pesées a été étudiée en pesant un même échantillon de résine réhydraté et centrifugé neuf fois de suite. Cette étude a permis de déterminer que la mesure de masse est réalisée avec une précision supérieure à 99,5 %. II.2.2. Le potentiel de Donnan H+ R- R RH+ H+ R- An+ Y- - R- H+ - R RR- RAn+ Y- H+ An + Y- Figure 7. Représentation d'une bille de résine sous forme H+ et échange de H+ pour le contre-ion An+. Considérons une résine échangeuse de cations sous la forme H+, donc qui possède des charges fixes négatives R- et des cations échangeables H+ . Supposons que cette résine est placée dans une solution aqueuse d'un électrolyte An+ - nY-. Il peut y avoir un échange, dit « échange ionique », entre les contre-ions H+ et An+ (cf figure 7). La particularité de cet échange réside dans le fait qu'il est contrôlé en partie par des forces électrostatiques et non pas uniquement par la diffusion à cause du gradient de concentration. En effet, selon les lois de Fick, le gradient de concentration implique une diffusion des ions An+ et Y- vers les grains de résine et des ions H+ et R- vers la solution. Cependant, les ions Rsont fixés sur le squelette de la résine et ne peuvent donc pas passer dans la solution aqueuse. 15 II.2. Absorption d'eau et d'électrolytes Ainsi, lorsque le premier ion Y- quitte la solution, il se crée un déficit de charges négatives dans la solution. Ceci se traduit par l'apparition d'un potentiel très intense entre la résine et la solution car l'électroneutralité doit être toujours respectée en solution. Ce potentiel empêche par là même un autre ion Y- de quitter la solution. Ce potentiel est nommé potentiel de Donnan et il résulte en l'exclusion des co-ions (ions de même charge que les charges fixées sur la résine) de la phase résine [Helfferich, 1962]. Cette exclusion peut être considérée comme complète lorsque l'on place la résine dans une solution diluée et lorsque l'on utilise des résines fortement réticulées. Dans le cadre de la mise en oeuvre des REI dans les circuits de purification des REP, ces deux conditions sont remplies. En revanche, pour les besoins de notre étude expérimentale, nous placerons les résines étudiées dans des solutions ne pouvant pas être considérées comme des solutions diluées (les concentrations étudiées pourront atteindre jusqu'à 1 mol/L). Ainsi, le phénomène de sorption des co-ions, et donc des contre-ions qui les accompagnent, sera à prendre en compte dans l'analyse des résultats expérimentaux. De plus, le potentiel de Donnan n'influe en rien sur les espèces neutres en solution. Donc, les électrolytes non dissociées en solution aqueuse vont pénétrer très facilement au sein du réseau macromoléculaire des résines. Le seul frein à leur accumulation dans cette phase est la pression de gonflement de la résine (cf II.2). La sorption des co-ions dans la résine amène à considérer un deuxième mécanisme d'échange d'ions. En effet, les contre-ions qui ètent la paire d'ions sorbée peuvent à leur tour s'échanger pour des autres ions de la solution aqueuse. Cependant, ce mécanisme ne sera pas pris en compte dans les modèles développés dans la suite de ce document car il est extrêmement mineur par rapport au mécanisme principal d'échange d'ions et qu'il n'est pas apparu comme perturbant l'échange ionique (à l'exception de la détermination des capacités d'échange, cf II.3.1). II.2.3. Sorption d'électrolyte II.2.3.1. Régénération Les résines provenant du fournisseur sont rincées et régénérées avant leur utilisation afin de les débarrasser d'éventuels produits de dégradation qui se forment lors du stockage ainsi que des produits issus du relargage des composants préalablement retenus par la résine. Pour ce faire, la résine est placée dans une colonne de verre de diamètre interne égal à 1,5 cm et d'une hauteur d'environ 15 centimètres (soit un volume hydraté de l'ordre de 26,5 mL). Les extrémités réglables de la colonne permettent de diminuer le volume mort au maximum et ces dernières sont reliées à une pompe péristaltique qui impose un débit constant de 200 mL/h, soit 7,5 volumes de lit par heure. Après un rinçage par 200 mL d'eau ultrapure, la résine est régénérée afin de garantir son état initial (groupements échangeurs sous forme H+) par passage de 200 mL d'acide chlorhydrique Suprapur de concentration 1 mol/L. Enfin, une grande quantité d'eau ultrapure (en général au moins 1 litre) est percolée à travers le lit de résine afin de débarrasser cette dernière des traces d'acide résiduel. Cette résine est alors stockée en eau dans la colonne et toujours rincée par une centaine de millilitres d'eau ultrapure avant utilisation. des uses d' II.2.3.2. Relargage de chlorures Afin d'étudier la sorption d'acide chlorhydrique lors de la régénération de la résine, nous avons effectué des tests en fonction du volume d'eau de rinçage. Pour cela, une colonne de résine de 10 mL a été conditionnée comme indiquée ci-dessus puis des prélèvements de 100 mg de résine à différents stades du rinçage ont été effectués. Ils ont été placés dans L d'eau ultrapure puis l'évolution du pH de cette solution (caractéristique du relargage de l'acide sorbé) a été suivie en fonction du temps. Une fois ce pH stabilisé, la concentration en anions de la solution a été déterminée par analyse en chromatographie ionique (figure 8). 100 mg - 50 min pH Chromatographie ionique 50 mL Figure 8. Schéma de principe du suivi du rinçage de la résine. Evolution du pH Avant l'introduction de la résine, l'eau ultrapure est agitée pendant environ 5 minutes jusqu'à ce que son pH se stabilise aux alentours de 5,6 (correspondant à l'équilibre de la solution avec le CO2 atmosphérique). La conductivité très faible de la solution aqueuse rend les mesures de pH délicates et peu précises, ce qui peut expliquer les différences des valeurs absolues des pH initiaux mesurés. L'introduction de la résine (à t = 0 s) est systématiquement suivie d'une chute du pH qui se stabilise à des valeurs proches de pH = 3. 6 5 pH 4 brute brute lavée 3 0,2 L 0,93 L 2 2,1 L 1 0 0 500 1000 1500 2000 Temps (sec) 2500 3000 Figure 9. Evolution du pH d'une solution de 50 mL contenant 100 mg de résine IRN 97H selon son état de conditionnement. 17 II.2. Absorption d'eau et d'électrolytes La figure 9 présente les résultats des suivis du pH. La résine « brute » correspond à l'état de la résine dans les containers de livraisons. La mention « brute lavée » indique que cette résine a été lavée à réception par 200 mL d'eau ultrapure. Les trois mentions « 0,2 L », « 0,93 L » et « 2,1 L » indiquent les volumes de rinçage de la résine après sa régénération. Quel que soit l'état de conditionnement de la résine, cette dernière relargue de l'acide. Ceci valide l'hypothèse de sorption de HCl dans son réseau macromoléculaire lors de la conversion des sites d'échange sous forme H+. L'expérience montre que plus la résine est rincée et plus la quantité d'acide relargué en solution est faible, ce qui semblerait indiquer une diminution du stock de HCl contenu dans les billes de REI. Afin de confirmer cela, une même masse de résine a été placée dans deux batch successifs d'eau ultrapure. La figure 10 montre la diminution de la quantité d'acide relargué, ce qui prouve une désorption de cet acide lors du rinçage de la résine. Cependant, le pH final reste bas donc le stock d'HCl sorbé reste important. Enfin, les résines PMUC (Produits et Matériaux Utilisés en Centrale) fournies par les fabricants sont bien rincées (cette opération est effectuée pendant plusieurs heures avec de l'eau déminéralisée chauffée à 50°C). Cependant, elles ne peuvent pas être utilisées en l'état car le taux de conversion des sites d'échanges sous forme H+ n'est a priori pas de 100 %, ce qui rend nécessaire la régénération des résines en colonne avant leur utilisation.
25,732
35/tel.archives-ouvertes.fr-tel-01320127-document.txt_14
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,515
11,247
ah les chaussures - et oui donc il fallait reprendre la phrase complète et ne pas se bloquer sur orphelin seulement - dans ce cas là orphelin c'est il aurait quel sens orphelin dans cette phrase du coup parce que c'est vrai dès qu'on a le mot orphelin on pense aux enfants etc mais dans la phrase qu'est là orphelin il aurait quel sens 222 Wassim euh orphelins ça me fait penser euh qui z'ont plus euh de de chaussures euh 223 Ens. donc le mot orphelin il n'est pas il n'a pas que le sens d'enfants privés de parents orphelins donc privés de quelque chose donc privés de leurs chaussures hein ils sont ils sont pas en super état nos soldats donc y en a certains qui n'ont plus leurs godillots aux pieds - oui Son intervention (notamment « orphelin on pense aux enfants etc mais dans la phrase qu'est là orphelin il aurait quel sens ») pourrait être paraphrasable en : « ne vous contentez pas de dire le sens du dictionnaire, c'est ce qui entoure le mot qui est important » et c'est ce que prône la didactique du vocabulaire. Il le dit d'ailleurs explicitement dans l'entretien en autoconfrontation : 100 Ens. d'abord je pense que c'est un mot qu'ils ne connaissent pas et par contre je voudrais qu'ils arrivent à le comprendre vu le contexte de l'histoire donc euh à travailler là-dessus quoi - j'ai pas compris je n'ai pas compris un mot mais dans le contexte de l'histoire j'arrive à comprendre quand même de quoi il s'agit [] 334 L'enseignant A lui aussi, pour expliquer la même métaphore, se préoccupe de ce qui entoure l'UL problématique (ici le contexte plus large et non pas uniquement le cotexte). Il choisit de passer par la lecture experte d'un passage qu'il choisit : Annexe 18 : autoconf.A2 39 Ens. parce qu'il me semble que si je disais orphelins de leurs godillots euh il y a des autres mots là molletières il y a tous les mots qui vont avec godillots molletières exetera bon le seul mot qui semble l'avoir gêné c'est orphelins de leurs godillots mais molletières je sais pas s'il savait que c'était près des mollets pour les voilà donc y'avait tous ces termes et pour euh il me semblait peut-être qu'en relisant ça lui aurait permis avec une lecture d'un adulte qui comprend ça lui aurait peut-être comp- permis de comprendre euh de saisir le sens de orphelins de leurs godillots en relisant toute la phrase 40 C: 41 Ens. voilà par rapport au contexte précisant plus loin l'importance de l'interdiscours dans l'élucidation du sens qui peut permettre de résoudre un problème lexical plus que ne le ferait le dictionnaire : 44 Ens. puisqu'il m'a donné la définition du terme orphelin ce sont donc des enfants qui n'ont plus de parents et euh on a vu que godillots il savait pas ce que c'était donc quelqu'un donne la définition du terme godillots qui sont des chaussures donc euh ben les deux l'association des deux termes ça veut dire que les chaussures n'ont plus de parents et euh ben si y a orphelins de leurs godillots euh le choix de orphelin n'est pas en rapport enfin le sens du mot orphelin qu'il peut trouver dans le dictionnaire ne lui permet peutêtre pas de comprendre euh enfin c'qui c'que signifie orphelins de leurs godillots dans ce contexte-là de la guerre de 14 euh avec des soldats qui - voilà 335 Une autre forme d'étayage, (on devrait dire de micro-étayage) repose sur la correction. On observe dans notre corpus qu'elle se réalise à des degrés différents : de celle basée sur un « non » catégorique à celle plus fondue dans l'interdiscours. Voici deux exemples du premier type de correction (corpus de l'enseignant C et de l'enseignant A) qui, pour le premier, évite une erreur de compréhension de la métaphore par métonymie (« feu bleu ») : Annexe 8 : Verb . C2 460 Adem la télévision 461 Ens. la télévision - la télévision vue de l'extérieur ça pourrait donner cette image de feu bleu en plus associé à la fourche antenne pourquoi pas 462 él? peut-être que c'est la vitre qu'est bleue 463 Ens. la vitre qu'est bleue - non il aurait pas dit un feu bleu dans ce cas-là mais je pense que l'idée de Adem elle est pas -- là on va aller voir Et pour le second évite une erreur sur le genre textuel en corrigeant « dans la foulée » l'intervention d'un élève : Annexe 3 : Verb.A1 276 Eliott à l'écrivain mais aussi comme ils étaient un peu dans un monde fantastique je pense 277 Ens. merveilleux -- du conte La correction peut également passer par la mise en doute pour signaler un mot d'élève inapproprié : Annexe 8 : Verb.C2 224 él? ben euh on voit y a ya ya le directeur y 225 Ens. alors je ne suis pas sûr que ce soit le directeur enfin leur chef c'est leur chef d'accord 336 Parfois elle est plus ténue discursivement parlant (du moins dans la première partie de l'intervention de l'enseignant parce qu'ensuite l'adverbe « quand-même » marque le modus du maitre) : Annexe 8 : Verb.C2 373 Nabil j'ai l'impression que si le celui euh qui est devant euh il a rien euh il est pas blessé 374 Ens. ben il est blessé au ventre donc là on le voit pas mais il est plus que blessé puisque c'est une blessure que l'a fait mourir quand-même à l'époque Elle est également non marquée comme ici au tour de parole 141 (corpus de l'enseignant A) : Annexe 6 : Verb.A2 241 Ens. esgourde vous regarderez dans votre dictionnaire esgourde c'est un mot en argot pour dire oreille - l'esgourdomètre c'est quelque chose qui leur permettait puisque esgourde c'est une oreille [] faisant suite à l'affirmation erronée d'un élève trois tours de paroles en amont : 238 Maxine je pense euh je je pense que euh je pense qu'après il va amener euh - un esgourdomètre une espèce de bombe Puis l'échange se clôt sur une correction/institutionnalisation qui se combine avec une reformulation à visée récapitulative : 256 Ens. voilà alors on a le vocabulaire de la première guerre mondiale qui est utilisé pour parler de ce qu'ils voient aujourd'hui l'esgourdomètre c'est pas une bombe c'est quelque chose qui leur permet d'entendre d'écouter esgourde en argot c'est l'oreille Il en va de même pour cet autre extrait, chez l'enseignant C cette fois, où la correction est suivie d'une récapitulation en 541 : 337 Annexe 8 : Verb.C2 535 Ens. ils sont morts d'accord - des visages effarés ça veut dire quoi effaré 536 Mounir épuisé 537 Ens. épuisé non c'est plus qu'épuisé 538 Sarah effrayé 539 Ens. oui c'est vrai qu'ils sont effrayés 540 Myriam p't-être que comme on avait vu les autres personnes qui z'avaient du sang comme euh la personne qui avait euh qui avait une balle dans la tête 541 Ens. ouais donc effaré ça voudrait dire d'accord à la fois étonné à la fois surpris à la fois on n'ose plus bouger on a la bouche ouverte et on regarde ça - oui 542 él? y sont morts de peur 543 Ens. peut-être aussi oui s'ils sont effarés ça peut ça peut arriver - euh - des mains tremblantes bon là oui on comprend – y a Monnier qui veut comprendre il demande à Sorin de lui passer de lui passer quoi La correction quand on s'intéresse à la glose à thème lexical en classe de littérature est donc loin d'être uniforme. Elle est associée à une variété de procédures langagières (correction catégorique, mise en doute, demande de précision sémantique). Elle est parfois problématique comme dans le dernier exemple que nous venons d'analyser. On peut dire que la correction n'est spécifique à la glose à thème lexical en classe de la littérature que lorsqu'elle touche à la compréhension/ interprétation du texte (comme ça été le cas pour la compréhension du sens littéral de la métaphore « feu bleu » ou pour « esgourdomètre » qui n'est pas « une espèce de bombe ») mais ce n'est pas toujours le cas dans ce qu'il nous a été donné d'observer. 338 10.4.3. Étayage langue/littérature : orienter l'interprétation, utiliser des mots de la discipline « En littérature, on peut vouloir utiliser en même temps plusieurs sens d'un même mot », voilà ce qui réunit les différents étayages suivants. Nous avons déjà parlé du premier (quand nous l'avons regardé sous l'angle de l'étayage en contexte : section 10.3.1.) par lequel l'enseignant pointe un usage de la polysémie dans le texte à lire. On insistera cependant ici sur l'usage quelques tours de parole plus loin par le maitre de la terminologie spécialisée « sens propre » « sens figuré » : Annexe 8 : Verb.C2 286 Smaïn euh ben parce qui z'ont pas de tête 287 Ens. pourquoi ils n'ont pas de tête - ça veut dire quoi j'ai plus de tête 288 Smaïn euh parce que comme 289 Ens. chut chut - y a une petite astuce là de l'auteur 290 E(s). ah moi moi et : 293 Ens. hum - est-ce qui joue pas sur deux expressions 298 Ens. alors si on devait associer ça à un sens propr e et à un sens figuré qu'estce que ça pourrait dire Cet étayage permet à l'enseignant de faire passer les élèves de l'implicite de l'UL thématisée, à l'explicite de l'accompagnement interprétatif. Il montre clairement qu'il faut chercher le lien entre le sens en emploi et le sens en langue, que la métaphore « vive » joue sur ce clignotement. Il est à noter aussi que l'étayage qui peut se traduire dans une reformulation à visée récapitulative peut se dérouler en plusieurs étapes comme ici chez l'enseignant B où la médiation porte sur l'UL « zapper » dont la polysémie est centrale dans Zappe la guerre. 339 Remarquons à chaque fois la présence du marqueur de reformulation « consécutif » (Zenone, 1982)48 « donc » : Annexe 7 (séance 2) : Verb.B2 234 Ens. hum donc y a zapper changer de chaîne zapper oublier et il y en a un autre - un troisième sens 256 Ens. donc là dans la situation du livre hein il demande de changer de chaîne [] 269 Ens. donc est-ce qu'on lui demande de zapper au sens de passer à autre chose ou d'oublier ou est-ce que c'est ça qu'on lui demande - on lui demande quoi au garçon Dans ce cas précis, la reformulation à visée récapitulative est associée à une série de questions pour dérouler le champ sémantique de l'UL afin de faire comprendre à la classe que l'album joue de ces différentes significations. 10.5 LE GESTE D'ATMOSPHÈRE La notion d'atmosphère est définie par D. Bucheton comme le maintien « des espaces dialogiques par un climat général cognitif et relationnel [] qui autorise ou non la prise de parole de l'élève et régule le niveau d'engagement attendu dans l'activité » (Bucheton, Dezutter, 2008b). L'importance de cette dimension fait écho au concept d'engagement scolaire dont la psychologie de l'apprentissage a montré qu'il était candidat à expliquer les différences de performance entre élèves, toutes choses égales par ailleurs (Fredricks, Blumenfeld, Friedel, Paris, 2005). 48 A. Zenone préfère parler de marqueur « consécutif » plutôt que de marqueur « conclusif » (terminologie de N. de Spengler, 1980 ; basée sur l'opposition d'O. Ducrot entre argument et conclusion) car elle dit entre autres que la conclusion marque une occurrence alors que l'idée de consécution marque une relation entre deux unités. Le choix de donner un poids important aux gestes relevant de cette dimension montre, chez les auteurs du modèle des gestes professionnels, la volonté de refuser la coupure entre le « didactique » et le « pédagogique », mais aussi de marquer que le cognitif ne peut se séparer de l'affectif. Dans le cadre qui est le nôtre, au croisement du linguistique et du littéraire, le concept nous intéresse particulièrement, en lien avec la problématique de la singularité et de la subjectivité qu'implique une pratique littéraire des textes, et la place qui est donnée, de manière spécifique, à ce que nous avons appelé le sens pour soi. Nous avons pu identifier deux déclinaisons du geste d'atmosphère par rapport à nos épisodes métalexicaux. La première est celle qui consiste à laisser parler les élèves, à accepter leurs formulations de transition et/ou à relayer leurs mots de la réception ; la seconde celle qui consiste à accepter leurs interprétations (voire à co-interpréter) quand elles s'appuient sur les mots du texte à lire ou sur l'illustration. En voici une explicitation clairement énoncée par l'enseignant C dans l'entretien en autoconfrontation à propos de Zappe la guerre : Annexe 20 : autoconf.C2 29 Ens. ben pourquoi pas c'est j'accepte ton explication après on va voir dans le livre si on pourra la maintenir ou si elle se vérifiera ou pas enfin bon mais pour pas dire ben non ça c'est pas au top Pour ce qui est de la première déclinaison, on observe que les maitres laissent le sens se construire par tâtonnement comme dans l'exemple suivant où l'enseignant C accueille un mot de la réception qui pourrait apparaître comme inadéquat (« râlement ») : Annexe 8 : Verb.C2 651 Ens. ouais de désapprobation ça voudrait dire quoi 652 Wassim énervé 653 Sarah énervement 654 Ens. pas tout à fait énervement 655 él? euh de râlement 656 Ens. oui de râlement il râle d'accord - désapprobation -- on désapprouve 657 Nabil ah on euh en fait on fait semblant euh de dire que comme ça il a pitié de nous 341 658 Ens. non pas sûr qu'il fasse semblant - oui Smaïn 659 Smaïn il est pas d'accord 660 Ens. d'accord désapprobation c'est pas d'accord on désapprouve c'qui s'passe - d'autres images de guerre modernes apparurent instantanément avec des civières des sirènes des chars blancs comme neige - en bas encore une image historique mais on n'a pas le temps trop d'y revenir éventuellement on en parlera en histoire Ses interventions laissent une ouverture à la discussion en ne refusant pas les propositions de certains de ses élèves de manière catégorique (voir en 654 : « pas tout à fait » et en 658 : « non pas sûr »). Dans le trajet sémantique suivant : « énervement » > « râlement » > « on fait semblant », il accepte le « râlement » proposé en 655 même si le registre de langue est inadéquat (le sème /inacceptable/ est conservé mais il s'agit d'un néologisme basé sur le verbe familier « râler »). D'où l'importance de la reformulation en 656 qui met en valeur la parole de l'élève tout en rétablissant le niveau de langue approprié. Faire semblant est quant à lui écarté sans faire ressentir à l'élève le caractère erroné de sa réponse. Le geste d'atmosphère encourage et rend possible l'essai sémantique, ces essais de parole/essais de pensée dont nous avions dit qu'ils étaient caractéristiques de situations d'apprentissage (sections 3.2.1.2 et 9.2.2.). L'enseignant B aussi développe une forme d'atmosphère en se plaçant au même rang que ses élèves dans la co-lecture intersémiotique (texte/image). Ce que montre ses interventions aux tours de parole 321 et 333 : Annexe 7 (séance 1) : Verb.B2 321 Ens. mais sur l'image là vous voyiez rien qui vous fait euh -- alors c'est peut-être moi qui c'est peut-être mon étation mais - Bastien 322 Bastien on a l'impression qu'elle a mal 323 Ens. dans le décor 324 Marie elle a des habits tout déchirés 325 Ens. oui - mais est-ce que ça fait peur ça ça relève plutôt du drame - oui 326 él.? les arbres 327 Ens. ah alors les arbres 342 328 Oscar y y se referment sur elle 329 Ens. on dirait qu'y se referment sur elle mais ici là - ça vous fait penser à rien 330 Marie si - a des yeux 331 Ens. ah qui est-ce qui a dit a des yeux 332 Basile à un oeil 333 Ens. fin moi ça me fait penser à un oeil - comme si on était en train de la regarder Il les invitent par ailleurs à être des critiques herméneutes (en répondant à chaque fin de séance à la question : « qu'avez-vous pensé de ce texte? l'avez-vous aimé? pas aimé? pourquoi? ») qui ont la possibilité de développer leurs mots de la réception. Il est attentif à leurs interventions et les engage à s'exprimer comme ici : Annexe 7 (séance 2) : Verb.B2 132 Ens. du corps à corps c'est-à-dire Ou à préciser, comme dans cet extrait, l'usage d'un pantonyme : Annexe 4 : Verb.B1 588 Ens. tu lis pas des trucs comme ça - des trucs c'est-à-dire L'enseignant A invite aussi ses élèves à une parole libre : Annexe 3 : Verb.A1 12 Ens. ben c'est pas grave vous donnez toutes vos opinions - allez Emma Ens. c'est pas ce qu'on avait dit mais vas-y - vas au bout La seconde réalisation du geste d'atmosphère est celle qui concerne l'interprétation de l'oeuvre à partir de certaines UL. Les enseignants sont surpris mais ils écoutent leurs élèves (pour une analyse prospective de certains de ces épisodes, voir le chapitre suivant). L'enseignant C par exemple accepte l'interprétation d'un élève qui fait suite à plusieurs autres propositions (« de fous donc tu as cette image là toi » et « on va associer on va le garder ») même si cette dernière est pour le moins énigmatique dans cet épisode qui portait sur l'UL brinquebalant : Annexe 8 : Verb.C2 266 Ens. oui 267 él? un cortège de fous 268 Ens. de fous donc tu as cette image là toi -- bon brinquebalant on va associer on va le garder mais on verra ce qu'il y a derrière si on a une photo - estce que vous avez l'impression par exemple que l'image la photo plutôt qu'est prise en bas serait une image de cortège brinquebalant Il écoute aussi cette intervention d'élève (sans toutefois rebondir et le questionner sur son interprétation) à propos des animaux « désolés » dans La Petite fille du livre : Annexe 5 : Verb.C1 330 él.? moi je voulais dire qu'en fait ils ont l'air désolés mais après ça m'étonnerait qu'ils soient désolés comment - ils sont trop petits pour être désolés 331 Ens. d'accord Sa posture d'écoute est clairement explicitée dans l'entretien en autoconfrontation et mise en lien avec une lecture participative : Annexe 17 : autoconf.C1 52 Ens. oui j'avoue que c'est étonnant mais bon c'est ça façon de voir les choses et j'accepte il - y montre que - fin il est dans la lecture - 344 L'enseignant B lui aussi accepte ce que disent certains de ses élèves dans la glose sur les realia appuyée par le jeu intersémiotique entre le texte et les images de l'album. Il se montre à l'écoute de ses élèves quand ces derniers voient un homme en la marâtre : Annexe 4 : Verb.B1 393 Basile montrez maitresse - ouais on dirait trop un homme - avec un gros nez 394 Ens. ah b è elle est peut-être pas très belle alors 395 Basile ouais avec un gros nez 397 Ens . là ici on parlait des arbres tout à l'heure 398 E(s) et él .? Ens. on dirait un homme ouais on dirait un homme 399 alors fin- oui Il y a là quelque chose autour d'une certaine forme de prise de risque de la part de cet enseignant qui n'écarte pas la subjectivité projetée de certains de ses élèves voire même se place dans la discussion en co-lecteur et non en supra-lecteur. Le fait de leur montrer les illustrations peut aussi apparaître comme une invitation à la rêverie. Ce que nous pouvons retenir de cette analyse, c'est que la place donnée à ce que nous avons appelé le sens pour soi, l'intentio lectoris, est évidemment liée à la conception du lexique et de ce que doit être l'approche du vocabulaire que les enseignants se donnent. Ainsi, la mise en oeuvre des épisodes de glose à thème lexical relève d'une compétence professionnelle dont nous avons pu mesurer la complexité et la grande flexibilité. 10.6 SYNTHÈSE SUR LES GESTES PROFESSIONNELS 10.6.1 Apport d'une perspective ergonomique de notre objet Le modèle des gestes professionnels de D. Bucheton nous permet d'éclairer les conduites des trois maitres en complétant la description formelle par la prise en compte de contraintes contextuelles et d'un ensemble complexe de préoccupations : le pilotage, l'étayage, le tissage, le geste d'atmosphère, à des degrès divers bien sûr. Concernant la 345 glose à thème lexical, ce que l'on peut dire, c'est qu'elle impose l'analyse de ces gestes au niveau micro. Cela provient à l'évidence de sa particularité, c'est-à-dire de la focalisation sur une UL (même si une discussion peut se développer autour de l'UL thématisée au départ). Étant donné que notre étude est une étude qualitative, les exemples ne sont pas forcément nombreux, mais nous pensons pouvoir en dégager les traits d'un agir spécifique, en vue d'une validation postérieure. En analysant ces gestes et en les catégorisant par rapport à notre objet (nous ne nous sommes pas intéressée par exemple au tissage qui se manifeste dans une médiation plus générale, mais au tissage à thème lexical, à celui sur le dictionnaire, sur l'encyclopédie etc.) nous avons pu voir qu'un travail effectif et sui generis était réalisé par les enseignants sur le vocabulaire en littérature : ainsi le pilotage, lorsqu'on se focalise sur les mots, est défini par les décisions à prendre concernant l'ouverture et la fermeture des épisodes. L'étude du tissage, par exemple, fait apparaitre au moins deux dimensions : le tissage référentiel entre les mots du texte, les mots de la langue et les mots des discours (sens en langue, en emploi, association) ; et d'autre part le tissage didactique avec les sens pour soi, et finalement le tissage avec les mots des autres. Le tissage, qui est souvent une adresse collective portée par les seuls mots de l'enseignant, devient dans la glose à thème lexical, par le prisme des mots de la réception, un tissage de discours à valeur collective pour comprendre et interpréter le texte. De même, l'étayage à propos des mots repose moins fréquemment sur le seul apport brut et sur la seule correction, mais il peut s'appuyer sur des techniques qui concernent la didactique du vocabulaire proprement dite comme par exemple l'étayage morphosémantique ou l'étayage à partir du cotexte. 10.6.2. Essai d'approche comparative : peut-on caractériser des profils didactiques? Venons-en maintenant à chaque enseignant. Les propos qui vont suivre devront être pris avec la prudence de mise. Nous nous appuyons dans ce qui va suivre sur les analyses précédentes ainsi que sur les différents entretiens que nous avons menés, mais nous ne sommes pas à l'abri d'être nous-mêmes influencée par notre relation et connaissance des enseignants en dehors de cette recherche. Faisons ressortir ici quelques tendance s que nous avon s perçu es au fil de nos analyses. On a pu noter que l'enseignant C développait le geste d'atmosphère qui apparaît dès la phase de démarrage des séances auxquelles nous avons assisté : Annexe 5 : Verb.C1 1 Ens. on -- petite séance de littérature --- on va prendre la prendre la même démarche que ce qu'on a déjà pu faire - de ce qu'on a fait - donc on va regarder - on va en parler - on va voir à quoi ça peut vous faire penser qu'est-ce que ça peut vous inspirer euh comment on le comprend - tout ce qu'on fait déjà d'habitude [] Annexe 8 : Verb.C2 1 Ens. euh bon on va voir un peu ce qu'on en pense et ce qu'on en dit on va en discuter C'est une préoccupation chez lui comme le montre son intervention dans l'autoconfrontation à propos de Zappe la guerre : Annexe 20 : autoconf.C2 19 Ens. de les faire parler du vocabulaire qu'ils connaissent et puis généralement ils sont tout contents de dire le vocabulaire qu'ils connaissent donc ça mettra un peu en confiance sur la suite et l'entretien post-autoconfrontation où ce maitre se définit davantage comme maitre « appropriateur » qui « cherche à mettre ses élèves en contact personnel et autonome avec 347 les textes » même s'il précise que tout ne peut pas être dit et que l'autonomie serait à reformuler. Discuter, regarder, parler, penser, inspirer ; laisser sa place à une lecture personnelle et s'appuyer sur les paraphrases et les reformulations d'élèves, ne peut qu'avoir des conséquences au niveau du travail sur le vocabulaire en littérature. Et c'est ce que nous avons constaté : l'enseignant C laisse une place à l'hésitation dans la phase d'explication de certains mots, il laisse ses élèves faire des essais, se tromper. Un extrait de l'autoconfrontation sur Zappe la guerre appuie notre analyse : Annexe 20 : autoconf.C2 301 Ens. je garde en tête qu'elle a dit de plus près donc c'est pas ça mais c'est l'associer quand-même à voir Il utilise également souvent le geste de tissage avec le discours des élèves de manière à leur montrer sans doute que ce sont eux qui lisent et non pas le maitre seul. Il met en valeur leurs paroles dans l'interprétation de l'oeuvre. L'enseignant A utilise aussi le geste de tissage, avec cette particularité d'un entrecroisement de sa propre parole avec celle de l'élève pour tisser un discours commun qui mêle mots de la réception et reformulation du maitre. Celle-ci s'appuyant sur des mots de la réception qu'il a semble-t-il identifiés comme pertinents. Chez l'enseignant B, le tissage repose davantage sur l'analyse d'image. Il est en quelque sorte un lanceur fantasmatique dans la glose sur les realia. Il est en lien direct avec le geste d'atmosphère, comme nous l'avons déjà énoncé page 336, puisque cet enseignant se montre en position d'interpréter avec ses élèves : Annexe 4 : B1 Ens. mais sur l'image là vous voyiez rien qui vous fait euh -- alors c'est peut-être moi qui c'est peut-être mon interprétation mais - Bastien ce qui signifie implicitement qu'il écarte toute supériorité interprétative de sa part et laisse ouverte la discussion dans laquelle maitre et él èves sont partenaires dans la Discussion à Visée Littéraire. Les mots de la réception sont donc bien pris en compte par les enseignants mais n'ont pas été identifiés comme partie intégrante du travail sur le vocabulaire comme en 348 témoignent les entretiens semi-directifs (voir annexes 22, 23 et 24). Et même l'enseignant C qui pourtant parvient davantage que ses collègues à retrouver ce sur quoi a porté le travail sur le vocabulaire dans La Petite fille du livre (notamment la symbolique de forêt), dit ne pas s'en souvenir : Annexe 24 : ent.C 45 C: donc ça va être la rencontre avec ce que vont te proposer les élèves 46 Ens. ouais c'est ça 47 C: et dans la rencontre il peut y avoir des imprévus ou des choses qui se passent - un travail inattendu quoi 48 Ens . hum hum 49 C : y en avait dans ta séance là - sur le vocabulaire bien sûr 50 Ens. oh la la difficile de s'en souvenir - sans doute --- j'vois pas Pour ce qui est du geste d'étayage, on remarque que les trois enseignants aussi l'utilisent. L'étayage morphosémantique est une préoccupation « technique » affirmée chez l'enseignant A (autoconfrontation sur La Petite fille du livre) : Annexe 15 : autoconf.A1 38 Ens. oui on a travaillé enfin ils ont - on a lu des autobiographies ou ils ont lu des extraits euh d'un auteur qui écrivait sa propre vie donc euh --- et en fait autobiographie on travaille beaucoup euh sur la signification des préfixes exetera - donc biographie autobiographie - sur la différence entre les deux parce que on peut écrire une biographie et pas une autobiographie donc je pense que - parce que je m'entends redire que euh euh c'est une biographie et pas une autobiographie je pense - oui d'abord on travaille les préfixes on le fait euh -- tout le temps donc euh la différence entre auto et biographie - j'ai l'air d'insister dans ce que je vois et ce que je me souviens donc on avait dû voir effectivement l'autobiographie et la biographie - voilà 349 de même que chez l'enseignant C qui y voit lui aussi, par-delà l'étayage en situation, une attitude à construire auprès de ses élèves (autoconfrontation sur Zappe la guerre) : Annexe 20 : autoconf.C2 306 Ens. pour essayer de se dire aussi parfois moins connu euh même si je le connais pas je connais suffisamment de mots autour avec les préfixes les suffixes tout ça pour euh arriver à trouver un sens global du mot même s'ils l'ont trouvé quoi L'étayage au moyen du dictionnaire n'est pas utilisé par l'enseignant A mais les enseignants B et C y ont recours. Pour l'enseignant B, il s'agit plus d'une préoccupation décrochée (autoconfrontation sur Zappe la guerre) : Annexe 19 : autoconf.B2 26 Ens. c'était pour euh pour la enfin plutôt pour la recherche ben pas forcément tu vois pour le sens mais pour la manière de chercher les informations 27 C d'accord la manière de chercher voilà Pour l'enseignant C, il est finalement un outil qu'on utilise en dernier recours en littérature (autoconfrontation sur Zappe la guerre) : Annexe 20 : autoconf.C2 352 C : donc là tu euh tu leur fais chercher dans le euh dans le dictionnaire 353 Ens. alors il faut je pense que c'est nécessaire de le faire parfois alors que je le fais rarement en littérature mais une fois dans l'album ça peut arriver d'abord parce que je vois pas comment faire pour qu'ils comprennent le mot si ce n'est - si je leur donne 354 C : hum hum 355 Ens. et la deuxième chose c'est que ben pour les habituer que aussi parfois ben le mot on peut ne pas le connaître donc faut chercher dans le dictionnaire - y a pas d'autre solution sur certains mots je peux les 350 deviner le contexte tout ça avec l'image j'aurais pu deviner à peu près ce que c'était bon mais ce coup-ci on va chercher dans le dictionnaire quoi Pour terminer, quelques remarques sur le geste de pilotage et la durée des séances qui peut varier du simple au double entre l'enseignant A (trois-quart d'heure environ) et l'enseignant B, quand l'enseignant C respecte lui, à quelques minutes près, l'heure prévue dans son emploi du temps. Cela peut s'expliquer par le fait que dans la phase d'action, le maitre entrant dans le métier (EEM) se situe davantage dans le faire-faire alors que l'enseignant A clôt les épisodes plus rapidement avec un questionnement plus serré (tour de parole 108 : « et elle passe de quoi à quoi la petite dans la forêt ») quitte à écarter certaines propositions d'élèves qui ne sont pourtant pas erronées (tour de parole 104 et 105) comme en témoigne l'épisode à propos de la glose sur les realia portant sur forêt qui ne comprend que quelques interventions : Annexe 3 : Verb.A1 100 Ens. qu'est-ce qu'on avait dit euh il me semble que c'était quand on a lu l'Annonce et qu'on avait vu les différents contes 101 él.? ah oui 102 Ens. de Charles Perrault - qu'est-ce qu'on avait dit de la forêt 103 E (s) et [XXX] c'est un - c'est un lieu où tous les contes se passent él.? 104 él.? il fait peur aux enfants 105 Ens. non - on avait pas dit ça 106 él.? ah oui on avait dit 107 él.? ah oui où y a toujours quelque chose qui se passe 108 Ens. c'est un lieu de passage - c'est que - alors il y est là-dedans ce lieu de passage et elle passe de quoi à quoi la petite dans la forêt 109 él.? de la méchanceté à la gentillesse 110 él.? du-du malheur à la joie 111 Ens. du malheur à la joie d'accord - donc y a la forêt comme élément du conte - y a la marâtre -- donc effectivement ça nous fait penser aux contes que l'on connaît [] 351 Voici donc les conclusions auxquelles nous avons abouties : la glose à thème lexical dans la classe de littérature engendre des gestes spécifiques de pilotage, d'étayage, de tissage et d'atmosphère. Cette spécificité est liée étroitement aux intentions des enseignants, dépendant elles-mêmes de leur conception des épisodes métalexicaux, de leurs formes possibles et de leurs fonctions. Les préoccupations des enseignants renvoient donc à des conceptions d'arrière plan qui ont été construites par l'expérience ou par la formation. Nous n'avions pas conçu notre dispositif comme une ingénierie : il ne s'agissait pas de mesurer le gain d'efficacité apporté par un changement dans les dispositifs d'enseignement, mais seulement d'observer comment, sur la base d'un support de lecture commun, trois enseignants « faisaient du vocabulaire » comme à leur habitude. Cette première description permet toutefois d'ouvrir des pistes potentielles pour de la formation. Nous sortons cependant de la description pour entrer dans une autre attitude qui n'est plus celle du chercheur, mais celle du concepteur de formation. 352 CHAPITRE 11 : UN POTENTIEL DIDACTIQUE INEXPLORÉ, DES PISTES POUR DES EXPÉRIMENTATIONS EN CLASSE ET EN FORMATION 11.1 CONTEXTUALISATION Ce chapitre a pour vocation d'ouvrir un espace de réflexion, il est à prendre pour ce qu'il est, c'est-à-dire pour un chapitre prospectif situé dans le prolongement des descriptions faites dans les chapitres précédents, et nourri par des observations et des expérimentations/intuitions de formatrice qui demanderaient soit à être étendues à un corpus plus important, soit à être expérimentées avec un dispositif plus élaboré en formation. Dans la première partie de ce chapitre nous allons parler des classes qui ont été l'objet de notre étude. Dans la seconde, du contenu d'entretiens informels que nous avons filmés à la fin d'un module de didactique du vocabulaire auprès de nos étudiants en Master. 11.1.1. Les points de subjectivation : un point d'attention didactique sous exploité par les enseignants Il est un point sur lequel nous souhaiterions insister dans cette section. Il s'agit de la gestion par les maitres des points de subjectivation que nous avons identifiés comme des interventions porteuses d'un potentiel interprétatif dans l'espace de contact langue/littérature. Il ne sont pas nombreux dans notre corpus, mais ce n'est pas leur nombre qui fait l'enjeu didactique. En revanche, comme toute esquisse de piste, celle-ci demanderait à être davantage réfléchie. On rappelle que notre question de recherche était : comment travailler le vocabulaire pour travailler sur le littéraire? et il semblerait qu'une façon de travailler le vocabulaire pour travailler sur le littéraire soit d'aller plus loin que le geste d'atmosphère (voir section 10.4) développé par les enseignants qui ont participé à notre recherche. 353 Voici ce que nous constatons : alors qu'ailleurs dans la glose à thème lexical, les enseignants interviennent dans l'interdiscours en usant de gestes de pilotage, de tissage et d'étayage à propos d'UL du texte à lire, on observe qu'ils n'enchaînent pas sur certaines interventions interprétatives d'élèves, repérables dans leurs mots de la réception, même si on a pu voir dans la section précédente qu'ils mettaient en oeuvre un tissage avec le discours des élèves pour entre autres poser des jalons récapitulatifs dans l'apprentissage. Une première explication pourrait être que les enseignants redoutent de perdre le contrôle du pilotage de la séance. alors là je 72 C: et tu prends le part- 73 Ens. d'ignorer - j'ai pas envie de me lancer là dedans Cependant nous n'insisterons pas particulièrement sur ce type de points de subjectivation. Nous souhaiterions parler de ceux qui gagneraient à être pris en compte et relayés pour alimenter le trajet interprétatif de l'oeuvre, alors qu'ils sont au contraire éludés ou annoncés comme un élément de discussion à venir, sans qu'aucune discussion n'ait lieu en aval. Ainsi, l'enseignant C prend bien en compte en 268 la proposition de son élève (« tu as cette image là toi » ) et annonce qu'il va faire revenir sur ce « cortège de fous » énigmatique dans la suite de la séance (« on va associer on va le garder »), mais il ne le fera pas : 354 Annexe 8 : Verb.C2 266 Ens. oui 267 él? un cortège de fous 268 Ens. de fous donc tu as cette image là toi -- bon brinquebalant on va associer on va le garder mais on verra ce qu'il y a derrière si on a une photo - estce que vous avez l'impression par exemple que l'image la photo plutôt qu'est prise en bas serait une image de cortège brinquebalant L'enseignant B, lui, écarte également une glose fantasmatique dans l'extrait suivant. Cette glose est pourtant selon nous est particulièrement intéressante dans ce qu'elle relève d'une fantasmagorie qui dit toute l'ambiguïté de cet être monstrueux et asexué : amusement visible à la vidéo) quand un élève lui dit : Annexe 4 : Verb.B1 400 Jules un yéti 401 Ens. on dirait un 402 Jules un yéti 403 Ens. un yéti 404 él.? mais on voit rien nous 405 E(s) 406 Basile on dirait un monstre là comme ça 407 Ens. alors ok --- alors qu'est-ce qui se passe ensuite qu'est-ce qui se passe ensuite -- quand la petite fille justement --- frappe Il en va de même pour l'enseignant A qui n'hésite pas à montrer sa surprise (et son amusement visible à la vidéo) quand un élève lui dit : Annexe 3 : Verb.A1 203 Julien oui je pense qu'à la fin euh la petite fille 204 Ens. chut Julien parle -- moi je sais pas 205 Julien elle va sortir du livre 355 206 Ens. ah elle va sortir du livre ah d'accord d'accord 207 E (s) alors que cette hypothèse mériterait d'être interrogée étant donné la problématique du livre dans le livre de La Petite fille du livre. Ces extraits de corpus nous suggèrent plusieurs réflexions. La première est qu'il nous semble important que ce type d'intervention d'élèves soit relayé par les enseignants. Les maitres pourraient en effet leur demander de préciser ce qu'ils veulent dire ou les inviter à argumenter sur le choix des mots qu'ils utilisent. Derrière cette décision, il y a une règle d'action elle-même liée à une conception de l'enjeu constitué par les épisodes métalexicaux : la règle pourrait se formuler ainsi : « il est important de donner de la place aux épisodes portant sur des mots qui « arrêtent » les élèves, même si c'est maladroitement, car l'enjeu didactique est double. D'une part, du côté de l'enrichissement lexical et la maitrise du lexique-grammaire autant que du lexique-culture, ces moments sont des indices de l'activité d'élèves aux prises avec la langue et le texte. D'autre part, sur le plan de l'enseignement du littéraire, on enseigne précisément une attitude qu'on pourrait appeler l'attention au texte (voir le numéro 137 du Français aujourd'hui (2002) sous ce titre) elle-même articulée à des habiletés, à des savoir faire : porter attention aux mots du texte pour faire jouer longuement sens en langue/sens en emploi/ sens en association et surtout sens pour soi. On rappelle ici le positionnement de F. Grossmann qui avance que l'enrichissement lexical est aussi relié à la question du choix des mots (voir section 3.2.9) que les élèves utilisent. C'est également notre conviction. On y articuler ce que nous avons dit (section 4.4.3) de l'activité d'interprétation caractérisant une lecture littéraire des textes et ses quatre « intentiones ». La seconde réflexion que ces interventions nous inspirent c'est qu'elles sont le lieu précisément du contact entre langue et littérature, et qu'en cela elles devraient être suscitées. Nous convoquons une fois encore F. Rastier (cité par Chabanne, Desault, Dupuy, Aigoin, 2008b, op.cit) pour appuyer notre propos : « Une sémantique des textes doit lier la "lettre" du texte, entendue au sens philologique et grammatical, avec son "esprit", c'est-à-dire les diverses interprétations qu'il contraint et suscite [c'est nous qui soulignons], et donc éviter deux attitudes unilatérales, que nous nommerons le "littéralisme" et le "spiritualisme" » (Rastier, 2001 : 27). Selon nous, l'enseignant a tout à gagner d'une attention à certains mots de la réception qui doivent donner lieu à des épisodes métalexicaux détaillés. Or les maitres n'enchaînent pas sur ces figures de l'ajout et ne « provoquent » pas leur apparition. De ce fait, ils ne semblent pas réaliser le rôle potentiel de ces interventions d'élèves dans « la médiation sémiotique » (Grossmann, 2012 : 10). Un des prolongements de la recherche serait justement de savoir si ces opportunités sont mieux saisies à partir du moment où des actions de formation ont attiré l'attention des praticiens sur ces imprévus et sur leur intérêt en terme de didactique conjointe du lexique et du littéraire. 11.1.2. Quid du lien langue littérature? Les entretiens avec des étudiants Master MEEF Le contexte de ces entretiens est le suivant : nous les avons menés en 2012/2013 auprès d'étudiants en master 2 (aujourd'hui Master MEEF : Métier de l'Enseignement de l'Education et de la Formation) dans un module de didactique du vocabulaire. Dans la dernière séance, traitant d'interdisciplinarité, nous avons distribué (notre visée était expérimentale) plusieurs albums dont La Petite fille du livre et Zappe la guerre, en demandant à ces étudiants comment ils travailleraient le vocabulaire avec leur élèves. Bien évidemment nous avons conscience que cette situation les prenaient au dépourvu (nous leur avions dit que cette consigne était en relation avec une recherche). Le but dans ce chapitre n'est donc pas de faire une critique (au sens négatif du terme), mais de présenter les différentes représentations des étudiants qui se recoupent parfois avec celles de maitres plus expérimentés. Voici donc les remarques que nous pouvons faire : les étudiants, quand on leur parle de vocabulaire en littérature, réagissent à l'identique des enseignants qui ont participé à notre étude (voir section 1.2.2.) quand ils pensaient que nous allions les observer en train de définir les mots du texte à lire avec leurs élèves. Pour ces derniers aussi, faire du vocabulaire, c'est « définir » et « classer » : 357 Annexe 25 : ent. M2/Zap (groupe sur Zappe la guerre) : 23 E1 comment ils interprètent ce comment interprètent-ils ce titre par rapport à ce qu'ils ont lu comment ils envisagent euh la définition du titre comment ils classent le titre dans le contexte de ce qu'ils viennent de lire D'où leur étonnement quand il n'y a rien à définir (groupe sur La Petite fille du livre : réflexion survenue après l'arrêt la caméra, que nous avons notée sur un papier libre) : Vous nous avez donné La Petite fille du livre ça nous a surprises car y avait pas de mots difficiles on n'a pas trouvé de mots à définir euh alors que dans les autres albums c'était pas le cas On remarque également (ce qui est tout à fait logique parce que ces étudiants se trouvaient dans un module intitulé « didactique du vocabulaire ») que leur vision de ce champ disciplinaire en littérature ne diffère pas d'un faire faire reposant sur la recherche d'un champ notionnel : Annexe 25 : ent. 11.1.3. Une piste de travail La piste que nous allons modestement présenter en cette fin de thèse est liée au postulat suivant : nous avançons que, sans dénaturer le travail sur l'oeuvre par un quelconque archarnement linguistico-linguistique, il est tout à fait possible de pouvoir faire identifier en formation ce que nous appelons des « parcours mots » aux enseignants dans la phase d'analyse a priori du texte. Ces « parcours mots », seraient motivés par les questionnements littéraires du texte et uniquement par eux. On rejoint ici le concept d'isotopie que F. Rastier, a repris de Greimas, tout en le prolongeant et le développant, et sur lequel J.-C. Chabanne (2013) s'appuie pour défendre la possibilité d'une lecture tabulaire d'un texte, cherchant à saisir l'essentiel de son contenu 359 sémantique (son système d'isotopies) à travers une sélection de lexèmes saillants, qui sont ceux que les interprètes relèvent pour référer au texte et en construire une interprétation synthétique. Le postulat général est que, pour parler d'un texte, le lecteur le modélise à partir d'une sélection de son matériel lexical, dans le prolongement des modélisations cognitives (Denhière, Baudet, 1992) mais aussi dans le prolongement d'une activité herméneutique qui désigne comme saillantes certaines unités. Ainsi, la pratique métadiscursive s'appuierait sur des unités privilégiées, désignées de fait comme des concentrateurs sémantiques autour desquels vont se développer les gloses et le débat interprétatif : « Lire un texte, c'est le réduire à quelques éléments de signification articulés dans une configuration spécifique (Greimas parle d'isotopie). Or, on peut considérer que ces quelques éléments sont portés par le matériau lexical, voire par un ensemble très reint de lexèmes. Une lecture « tabulaire » des écrits est alors possible, à la recherche de ces germes sémantiques en petit nombre. C'est ce mode de lecture qu'on voit à l'oeuvre dans certaines phases des débats interprétatifs » (Chabanne, 2005 : 23).
20,300
2003METZ020S_1
French-Science-Pile
Open Science
Various open science
2,003
Contribution à l'élaboration d'électrodépôts de matériaux thermoélectriques de type Bi2Te3 et Bi2(Te0,9Se0. 1)3
None
French
Spoken
7,840
18,262
AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l' ensemble de la commun auté universitaire é largi e. Il est soumis à la propriété intellectuelle de l'auteur . Ceci implique une obligation de citation et de référencement lors de l’ utilisation de ce document. D'autre part, toute contrefaçon, plagi at , reproduction en court une poursuite pén ale. illicite Contact : [email protected] LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intel le ctuelle . articles L 335.2 L 335.10 http://www. cf copies.com/V2/ leg / leg _droi. php http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm EcoleDoctoraleSESAMES UNIVERSITE DE METZ U.F.R.Sci.F.A. Laboratoire d'Electrochimie des Matériaux UMR CNRS 75-55 THESE devantl'Universitéde Metz Pou I l'obtentiondu gradede P résentée Docteur de l'Université de METZ (Mention Electrochimie/ Chim ie des Ma tér Par StéphonieMTCHEL CONTRIBUTIONÀ T' ÉTABORATION DE MATÉRIAUX D, ÉLECTRODEPÔTS DE TYPEBizTesET THERMOÉTECTRIQUES Biz (Teo,eSeo,r)e Soutenuele2S Octobre 2003devant la commissiond'examen Membr es du j tryt Rapporteurs: (Jniversitéde Strasbourg) P. CHARTIER,Professeur (UniversitédeMontpellier) J-C.TEDENAC,Professeur Examinateurs: H. BÔTTNER,PhD DocteurèsSciences(Institutefor Physical FraunhoferFreiburg,Allemagne) Techniques Measurement (UniversitédeMetz) C. BOULANGER,Professeur Invités : (UniversitédeMetz) J.M. LECUIRE,Professeur (Universitéde Metz) B.BOLLE.Maîtrede Conférences DE METZ UNIVERSITAIRE BIBLIOTHEOUE lllll lillill lill llil lilll |il|il lllll lllll lllll llll llil 031 5206582 EcoleDoctorale SESAMES UNIVERSITE DE METZ U.F.R.Sci.F.A. Laboratoire d'Electrochimie des Matériaux UMR CNRS 75-55 THESE Présentéedevant l'Université de Metz pour l'obtention du grade de Docteur de I'Université de METZ (Mention Electrochimie/ Chimie des Matériaux) pat MTCHEL Stéphonie CONTRIBUTION À T'ÉTABORATION O, ÉTNCTRODEPÔTSDE MATÉRIAUX ET THERMOÉLECTRIQUESDE TYPE BiZTCg Biz(Teo,sS€qr)a Soutenue le 23 Octobre 2003devant la commissiond'examen Membres du joryt Rapporteurs : (Universitéde Strasbourg ) P. CHARTIER,Professeur (Université de Montpellier) J-C.TEDENAC,Professeur Examinateurs : H. BÔTTNER,PhD DocteurèsSciences(Institutefor Physical FraunhoferFreiburg,Allemagne) MeastrementTechniques (Universitéde Metz) C. BOULANGER,Professeur (Universitéde Metz) J.M. LECUIRE,Professeur Invités : (Universitéde Metz) B.BOLLE,Maîtrede Conférences A.mesparents A messæurs À Camille Remerciements Le ttavai présenté dans ce mémoire z été réahsê au Laboratoire d'Electrochimie des Matériaux ( IJMR 75-55) de l' Université de Metz . En prernier lieu, je tiens à exprimer ma profonde gtatitude au Ptofesseur émérite JeanMarie LECUIRE, ancien Directeur du L.E.M, pout m'avoir accueilli dans le labotatoire et me faire l'honneur de présider mon jury de thèse.Je le remetcie également Pour les conseils qu'il m'a apportés ainsi que pour la confiance et le souden quï m'a prodigués âu couts de ces années. J" tiens BOULANGER, aussi à exprimer Directeur m sincère reconnaissance au Professeur Clotilde de thèse, pout m'avoir initié aux travaux de rechetche' Ses compétences scientifiques, ses encouragements, sa gentillesse et sa disponibilité m'ont permis d'effectuer ce t::availdans les meilleutes condidons. les Professeurs Pierre CI-IARTIER de l'Univetsité de Strasbourg Je suis très honorée que et Jean-Claude TEDENAC de I'Université de Montpellier aient acceptê de juger ce travail et de I'intérêt qu'ils y ont manifesté. Mes sincères remerciements s'adressent également au Docteur Hatald BOTTNER de yI.P.M. (Institute for Physical Measurement Techniques) de Freiburg Porrt sa participation au tury. Bernard BOT.T.E, Maîtte de Confétences du Laboratoite d'Etude Je remercie également des Textures et Applicadons aux Matériaux (L.E.T.A.M de I'Univetsité de Metz, pout I'intérêt qu'il a manifesté poru ce sujet et Poru sa disponibilité et ses conseils avisés. ( > du labotatoire : Eric MELIX J'adresse un gtand merci aux membïes permaflents (Président du GIE), Nicolas STEIN et Sébastien DILIBERTO pour leurs conseils et leur gentillesse. mâ compagne de route par temPs orâgeux et ensoleillé. Par ta présence Nathalie, permariente tes conseils tu m'as beaucoup ^pportê d'un point de vue scientifique mais également au niveau humain et plus particulièrement sur lavrate définition de l'amitié et je voulais t'en remerciet, gtande sæur. >> laboratoire : Boon, Franz, Doriane, Alex, Lionel, Je remercie aussi les < copains du Madrana,Dan, etJulien pour leur présence et les bons moments passésensemble. Merci Docteur Pino, pour toute l'aide que tu m'as apporté durant ces trois années et ces diverses convetsad.onsque nous avons pu avoir. Mes analysesà la micro sonde éIectronique et au microscope élecftonique à balay age , au Ser y ice Commun de Microanalyse de l'Université de Nancy ont été réalisées gràce à La compétence de M'" Sandrine BARDAT, M. Frédédc DIOT et M. Alain KOHLER, qu'ils soient vivement temerciés. J'"dr.s. également un tendre merci à Clément, mon râyon de soleil, ainsi qu'à Raph et Célia pour votre soutien et votre présence. Enfin je voudrais expdmer toute ma gratitude à mes parents, Sandra, Corinne et Denis. Sans leur souden frnanciet et moral je n'aurais jamais pu accomPlir ce travail. Je vous en remercie de tout mon cæur. TABLE DESMATIERES : INTRODUCTTON DUSUJET GENERALE T : PRESENTATION CHAPITRE I. Introduction............... tr. Principedu dispositifrecherché..........'.... m. Choix desmatériauxthermoélectriques """""""' 3 """""""""" """""""""""' 3 6 du tellururede bismuthet de son alliageà basede sélénium.'........"......"....9 Jy. Présentation """""""""" 9 A. Cristallographie """""""" 9 a. Cas du tellurure de bismuth Casdu composéà basede sélénium Les défauts b. c. B. M o d e sd'é l a b o r a t i o n............. a. Techniquesconventionnelles.......'.. """""""""'12 """""""""""12 """""""" 13 """""""""" 13 """"""' 13 Casdu Bi2Te3 ""'14 2. Casdu Biz(Teo,qSe0,r )i...'......... physiquesde films mincesde tellururede bismuth......................I4 b. caractéristiques """""' 15 électrochimique........'. C. Synthèse l. V. a. Avantages b. chronologiede l'élaborationde BizTerpar électrochimie........ Conclusion ""' 15.............16 """""" 18 CHAPITREII : TECHNIQUES I. Etudesélectrochimiques ......... A. Electrolyte parla chimiedu bismuth imposées a. Conditions parla chimiedu tellure.. imposées b. Conditions par la chimiedu sélénium c. Conditionsimposées dessolutions B. Etudesélectrochimiques faradique du rendement C. Détermination decaractérisation tr. Méthodes """"""""" 19 """"' 19..""""""""" 19.." """""""" ' 20 """"" """" 22 """"" """"' 23 """"""""" 25 """"""""""'26 BINAIRESDETyPEBizTes DE^^ATERIAUX III : ELABORATION CHAPITRE I. du composédetype BizTer.............. 34 de formationélectrochimique Etudedu processus..'.'..'......'.34 électrochimiques......... A. Analysedescomportements......35 du bismuth électrochimique a. Comportement.-.......36 du tellure électrochimique b. Comportement...'.......-....37 de Bi3* du TeNenprésence électrochimique c. Comportement '.----.-..37 l. R a p p o r t B i / Té eg a l à % e t à 2 1 3.....................38 Bi/Te:l 2. Rapport....'........38 B i /T e: 4 1 3......... 3. R a p p o rt.""."""' 39 4. Ra p p o rtB i /T e :2.....'....'.....'...'..........40 5. Di scu ssi o n dediffusiondu bismuthet du tellure..........................42 descoefficients B. Détermination -.-.-42 a. Principe.....'-..........44 dediffusiondu bismuth.............. du coefficient b. Détermination..'.-..-.'.46 du coefficientde diffusiondu tellure c. Détermination de diffusionenmoded'électrodestationnaireet C. Déterminationdescaractéristiques...-.......48 nonagité électrolyte.......'.50 D. Discussion en fonctiondela desespèces E. ExploitationpourI'optimisationde la concentration ................52 d'un électrodépôt désirée stæchiométrie...'....54 F. Conclusion -..................55 enmodepotentiostatique......... tr. Synthèse M.......................55 10-3 A. Etuded 'unesolutionderapportBi/ Te : I à uneconcentration concentrations ......................56 B . Etuded 'unesolutionderapportBi/Te: I à differentes.'...'.'...58 faradiques.............. C. Mesuredesrendements.............'.59 D. Etudecristallographique.......................59 électrodéposés a. Analysedescomposés..'..........61 demaille....... desparamètres b. Evolution..'....62 E. Etudedela texture............... ----.-.......-...67 F. Etudemorphologique........................69 d ecro i ssa n ce.....,........ G. V i te sse....-..-.'...........73 du typedeconductivité................ H. Détermination Bi/Te différents pourdesrapportsde concentration I. Dépôtsen modepotentiostatique.'..'.-..75 d e1...................78 J. Conclusion..................78 enmodegalvanostatique........... m. Synthèse '....79 A. Etudeen celluledeHull.....79 a. Principe.........80 b. Expérimentations....... ..'.........80 visuel 1. Examen...'...'.-.'82 2. Etudedela stæchiométrie......'....'.'." 85.' 3. D i scu ssi o n....'...'..85 de2cmz'.. desurface 1 dansunecellule B. EtudedurapportBi/Te=...'...85 a. Influencedela concenffation..............87 faradiques. desrendements b. Détermination '.'...............'..88 c. E vo l u ti odnel 'é p a i sse ur................ '..................90 d. Etudecristallographique...'...'...90 électrodéposés 1. Analysedescomposés.'.."...92 demaille....... 2. Evolutiondesparamètres......."...94 e. Etudedela texture................ f. Etudemorphologique.......... "......".101........'......103 du typedeconductivité................ g. Détermination Jy. Conclusion..........104 CHAPITREIV : MATERIAUXTERNAIRES: ELABORATIONDE Biz(Teo,sSeo,r)s I. électrochimique.......... Etudedu comportement....'..106 --..-.-.........112.......... enmodepotentiostatique tr. Synthèse '.-----'-....-.-.-Il2 A. Miseenplaced'un pland'expérience a. Introduction............... "' ll 2.......... 113 '..'...'........ b. Choixdesfacteurs de............ l. Choixdeslimitesdesfacteurs Xz et Xl relatifsà la composition........'.......' 113 l 'é 1 e ctro 1 yte..................'.'..114 2. Choixdeslimitesdu facteurXr relatifau potentiel.....I 16 du pland'expérience..........'... c. Construction.....l lg d. Résultats....................124 e. C o n cl u si o n B. lnfluencedu potentielet dela compositiondesélectrolytessurla compositiondu.....-....125 électrodéposé .............. composé.......125 de l0-2M a. Influencedu potentielà desconcentrations [. M............. de2.10'2 b. Influencedu potentielà desconcentrations c. Discussion descomposés électrodéposés............ C. Caractérisation a. Analysecristallographique b. Etudede la texture c. Etudemorphologique.......... du typedeconductivité................ D. Détermination E. Conclusion.........127...138............130.............130........133...........I37...................140......141 enmodegalvanostatique......... Synthèse A. EtudeencelluledeHull B. Influencede la densitédecourantet dela concentration......... C. Etudecristallographique........ D. E t u ded el a te xtu re............... E. Etudemorphologique.......... du typedeconductivité................ F. Détermination..................142...143................144.............146...............148...............152...................153 générale IV . Conclusion ............. 153 THERMOELECTRIQUES DEMATERIAUX V : ELECTRODEPOSITTON CHAPITRE DUII 6^2 II DE SURFACESDE L'ORDRE POURLA RÉALISATTON I. sursurfaceactivede l'ordredu dm2...... Electrodéposition et miseenplaced'unecelluleadaptée A . Con ception B . Validation dela nouvellecellule du potentie1................ ^ . Contrôle b. ContrôleeffectuépardiffractiondesrayonsX.............. c. Contrôlede la stæchiométrie.... d'uneanodesolublede BizTer C. Fabrication de2 cm2 surunesurface a. Pourl'électrodéposition surunesurfacedu dm2...... b. Pourl'électrodéposition........156. ................156........157 '.....157....158.......159.........' 160 161.......................162...........'.....164 du wafer........ et optimisation tr. Préparation........165 envisagées.......... A. Configurations........".....166 B. Testsdesdifferentssubstrats dansle milieu électrolytique....166 chimique desdiff érents substr ats a. Comportement...'167............... b . Tests é lect rochimiques ....167 1. L'acierinoxydable....................169 2. L e l a n ta l e 169......'....'....' denickelchrome 3. Lesbicouches 4. 5. 6. detungstène............. Lescouches detitane. Lescouches d'or et denickel-chrome/or.., casdescouches................I72................. 173 175............... sur'Waferde......... parvoieélectrochimique dematériauxthermoélectriques m. Elaboration...............180 s i l ici u m........ l8l techniques.......... A. Considérations..........181 électrochimique surwafer........ B. Déposition IV. Conclusion..........183 CONCLUSION 184 BIBLIOGRAPHIE5 REFERENCE5 186 ANNEXE1 gNYR ffibt . JgTHffi N La mise en forme de matériaux à propriétés valorisables est un enjeu industriel important. Si différentes techniques conduisent par voie sèche à l'élaboration de films engagésdans des dispositifsrelatifs à la haute technologie,l'élaborationreste limitée à des surfacesrestreinteset imposedescoûtsélevés. La voie électrochimiquemaîtrisée depuis longtemps dans I'industrie du traitement de surface doit offrir une alternative en mettant à profit sa capacitéà contrôler très finement et très aisémentles nombreuxparamètresnécessairesà la qualité et à la fiabilité de ce type de procédé. Pour cette prospective, le Laboratoire d'Electrochimie des Matériaux a acquis une expérienceoriginaledansle domainede l'élaborationpar voie électro chimiquede matériauxà notammentles composésà basede bismuth comme Bi2Tq 11,2, propriétésthermoélectriques 3l ou d'alliageBiSb 14,51. Ces premiers résultats ont démontré clairement les avantagesque présentent la voie électrochimique: '/ Une mise en ceuvresimple et relativement peu onéreuse./ Une maîtrise f,rneet une régulation précise desparamètresde synthèse,/ Une adaptabilitéaux dimensionsdes surfacesqui peuvent aller du nanofil dans les matrices poreuses aux centaines de mt pou. les dispositifs industriels en continu comme l' électrozingage./ Une réduction importante des conditions de travail sansnécessiterde vide ou de salleblanchepar exemple Cependantil est nécessairede signalerune caractéristiquelimitante due au principe même du phénomèneélectrochimiquequi est un processusd'interfacene conduisanta priori sur un supportconducteur. qu'à la formationd'un film électrodéposé Pour le Laboratoire,l'épanouissementde cet axe de rechercheest le passageà une valorisationdesprotocolesvers la conceptionet la réalisationde modulesopérationnelspour les différentes applicationsenvisageables:dispositifs statiquesde transfert de chaleur par effet Peltier ou de productiond'énergieélectrique(effet Seebeck)ou ausside capteursdivers. Dans ce sens une collaboration s'est mise en place avec l'équipe du Docteur BÔTTNER du Fraunhofer-lnstitute for Physical Measurement Techniques (I.P.M) de Freiburg et a donné lieu à la réalisation d'un contrat européen< Concept and Methodology for smart High Effective Thermoelectric Peltier-Coolersfor Telecommunication Laser Sources>>, n"2000-28063, Programme Information Society Technologies.Un volet important de ce travail concernait l'utilisation de la voie électrochimiquepour la spthèse des matériaux actifs. Il m'a donc été confié, pour mon travail de thèse, l'étude et I'optimisation de la synthèsed'électrodépôtsde tellurure de bismuth (de type n et de type p) et I'extension au ternaireà basede séléniumdont la stæchiométrieviséeest Bi2(Te6,sSeo,r) r. Le premier chapitre de ce manuscrit est consacré à une présentation générale de l'objectif. Le deuxième chapitre préciserad'une part les techniquesexpérimentalesutiliséesau niveau de la synthèse électrochimique et d'autre part les méthodes de caractêrisations physico-chimiquesdesmatériauxobtenus. L'élaboration électrochimiquedu tellurure de bismuth est présentéedans le troisième chapitre. L'étude analytique des réactions électrochimiquespermet d'orienter le choix des paramètreschimiquesnécessairesà l'obtention de ce composé.Deux modes de synthèsessont envisagés: le mode potentiostatiqueet le mode intensiostatique; ce dernier étant plus facilement adaptableau niveau industriel. Le quatrième chapitre traite de l'élaboration du matériau ternaire à base de sélénium. La démarchescientifiqueutilisée est conduite de manièresimilaire sauf que, aprèsl'étude du comportementélectrochimique,un plan d'expérienceest mis en place pour la définition du protocolede synthèsepar voie potentiostatique. Enfin, le dernier chapitre est consacréà la définition d'un protocole d'élaborationdes élémentsd'un module Peltier, notamment par l'électrodépositionde composésbinaires et ternairesde tellurure de bismuth à l'échelle du dm2. H] EffiA,FHTRffi pnÉ,seNrnrroxr Du cÉruÉBAtH SUffET I. Introduction Le but de ces travaux de rechercheest la réalisationpar la voie de l'électrodéposition de matériaux semi-conducteurs,de dispositif statique de transfert de chaleur (réfrigération gén&ale mais surtout localisée sur des dispositifs électroniques performants), de thermogénérateursélectriqueset capteursthermiquesnotamment dans le domaine médical et chirurgical ou de dispositif photo électronique.Le développementa été particulièrement orienté selon le cadre du contrat européen,vers la miniaturisation de refroidisseur à effet Peltier avec comme applicationles sourceslasersutiliséesen télécommunication.Le secteur de pointe en technologieet économiede I'information requiert des éléments< bon marché>, localiséset donc de petitestailles. Actuellementde petits refroidisseursthermoélectriques[6, 7, 8, gf sont fabriquésen débi les matériauxmassifsmais cette méthode de fabrication n'est pas appropriée pour une production en série dans des conditions économiques acceptables. Le développemententrepris,dans le cadre de cette thèse,se réfère à un conceptde fabrication fondé sur une technologie à faible coût avec pour principe la réalisation d'électrodépôtsavec micro-usinageet mise en forme effectuéspar voie de gravure chimique ou électrochimique. Les matériaux visés sont les semi-conducteursdans la famille des composésdu (blpe n), Biz+*Ter-* (tpe p) et surtout des ternaires, plus tellurure de bismuth Bi2-*Te3-p* performants,Bi2(Te,Se)l(n) qui sera notre objectif et (Bi,Sb)zTer(p) qui fait I'objet d'un autre travail de recherchedans le laboratoire. II. Principedu dispositifrecherché Les technologiessont définiespour conduiredesmodulesde réfrigérationPeltier selon la présentationsuivante (figure 1). Un module Peltier est constitué par un assemblagede jonctions p-n de semi-conducteursreliés, par des contactsmétalliques,en série d'un point de vue conductionélectriqueet en parallèled'un point de vue conductionthermique. 10-30pm Contact métallique fieure 1 : représentationschématiqued'un modulePeltier Les protocolesde fabrication au niveau industriel imposent la définition précisedes différentes étapes successiveset complémentairesainsi que la maîtrise de l'opération chimiques,structurales,de leur propriétéde d'électrodépôtavec contrôle des caractéristiques transport, des opérations éventuelles de traitement thermique, de leur micro-usinage et de la mise en place des contacts électriques. Ces points ont contribué à l'établissement du programme généraldu contrat et ont donc constitué certains éléments du développementde mon travail. La mise en forme de ce type de dispositif, fondé sur l'électrochimie, a déjà été étudiée et proposéepar Fleurial et son équipe [10]. Dans cette approche,le protocole est basésur des dépositions successivesde chacun des deux matériaux n et p thermoélectriques sur un seul support préalablementstructuré (frgure 2). I I + Contact métallique flgvre2 : conceptmis enplacepar l'équipede Fleurial 4 Le concept a été envisagé de manière différente dans le cadre du contrat européen, c' à dire une déposition spécifique de matériaux n et de matériaux p est réalisée sur deux wafers différents. Cette déposition est associée avec des étapes de structuration postélectrodépositionqu'elle soit de type gralure chimiqueen solutionou sousl'action d'lungaz. Après structuration des deux demi-modulesPeltier, le micro-module est alors obtenu par assemblagedes deux wafers selon le conceptreprésentésur la figure 3. Contact méta llique figure 3 : conceptbasésur l'assemblagede deux wafers L'avantage principal du concept adopté est la possibilité d'optimiser de manière indépendantechaquematériaux n et p notamment au travers de traitementsthermiques.Ainsi, dans ce concept, le développementde micro-appareils thermoélectriquesdoit s'appuyer sur les impératifs suivants : doiventposséderun facteurde mérite S les matériauxthermoélectriques supérieurà 30 pW/cm.K2de manièreà se rapprocher,au cours de (40 pWcm.*) auxmatériauxcommerciaux l'assemblage, S une réalisationdu contact fiable et performantnotammentavec des à l0-10O.m2 inférieures résistances I un accès à des techniques de gravure chimique ou électrochimique performantespour la réalisationrapide (rendementde 100 nm.min-l) de plots de géométrieadaptéeau conceptavecun angle de dissolution importantsupérieurà 60" (serapprochant demanièreidéalede 90') Notre objectifbasésur la réalisationde modulesPeltierorientenotreréflexionsur le de typep et n à électrodéposer. choix desmatériauxthermoélectriques Si les effets thermoélectriquessont connus depuisle milieu du 19è" siècle,l'intérêt qui s'est porté sur les propriétés des semi-conducteursa permis le développementde matériaux possédantun pouvoir thermoélectriqueélevé et permettant la construction de thermoéléments avec une plus grande efficacité [ l]. Les effets thermoélectriques sont observés lorsqu'il y a simultanément dans un conducteur,transfert de chaleur et de charges électriques.On dénombretrois effets : I'effet Seebeckou pouvoir therrnoélectrique,I'effet Peltier et l'effet Thomson qui régissent la conversion d'énergie thermique en énergie électrique,ou vice versa,desdispositifsthermoélectriques. Le facteur de mérite des matéri aux Z (K-t) est défini, chaque matériau, de la manière suivante : Z_ où d' pxl cr : coefficientSeebeckou pouvoir thermoélectrique(pV.K-t) p : résistivitéélectrique(pA.m) I : conductivitéthermique(W.m-t.K-t) Un matériau thermoélectrique développant de bonnes performances possède un pouvoir thermoélechique (cr) élevé, une faible résistivité électrique (p) et une faible conductivitéthermique(î"). 6 Ces trois grandeurssont liées et dépendentde la concentrationde porteurs de charges. La variation de ces paramètresà températureambiantepeut-êtrereprésentéeschématiquement par la figure 4. La concentrationoptimaleen porteursde chargese situeentre 1018et l0lecm-3. L'ensemble de ces considérations fait que parmi les matériaux les plus irrtéressants les semi-conducteurs apparaissent [12]. Isolans Méuru Semi -condr r cteurs 10z: l0l5 1016 l0l7 lgrt tgle l0æ l02l dePoræun(cm'l) Concentration figure 4 : variation schématiquedes propriétésthermoélectriquesdessolides en fonction de la concentrationde porteurs à températureambiante possédantun coefficient de mérite Le tellurure de bismuth [13] est un semi-conducteur Z appréciable,et représentele matériau de base pour les thermopiles utilisant I'effet Peltier car il possèdeactuellementles meilleures capacitésthermoélectriquesà températureambiante ( figure l) 12 1.S n wlth EF02T t,a 10 l2 0a *t-a&* f{t16 rs F r.â 0ô û.t o. 0"t D,t o2 0.o!00 6m 800 Temperature(K) 1000 0.0 1Éû ffi0 rûÛ&rffi78 T.|Hrnâl|tff' f{0 detypen [13] et p [14] en thermo électrique figure5 : évolutiondeZT deplusieursrnatériaux fonctionde la température 7 De plus, l'évolution du facteurde mériteZ en fonctionde la conductivitéélectriqueo à températureambiante,sont (o : 1/p) montreque les meilleursmatériauxthermoélectriques, le tellururede bismuthet sesalliagesà basede séléniumou d'antimoine[l]. En effet,les et les meilleursmatériauxde type n sont deux typesde conductivitép ou n sontreprésentés et BizTel alorsque le meilleurmatériaude type p est l'alliageà les composésBizTez,tSeo,r à cellesdu tellururede bismuthdetypep based'antimoinecar sespropriétéssontsupérieures (figure6). v, o N 0 0 '0 015 1,5 2r 0 1,0 o /10'Ç ) 'm -' figure 6 : variation de Z en fonction de la conductivitéélectriquepour différents alliagesde type Bi2Te3 Les progrès effectués ces cinquante dernières années dans les technologies de du réfngération,notammentgtâce à I'optimisation des alliages,ont abouti à un accroissement facteurde mérite Z, àtempêratureambiante(tableaul) [11,. CI, composluon p?," (pv.K-') (po'm)' iw.m-l.K11 zlrot K-') BizSer 85 15 2,4 0,2 SbzTer 100 I4 2 0,3 BizTet 185 l0 1,9 1,8 Bi*(TerSe,) 190 I4 r,25 2,1 (Bi.Sb,)TE 200 t 2 1,15 2,9 tableau I : propriétés thermoélectriquesde différents alliages de type VzVIg Les générateurs thermoélecfriques, dispositifs statiques, ont démontré des caractéristiquesattrayantes: longue durée de vie, faible maintenance, niveau de fiabilité élevée.Ils possèdentactuellementde nombreux domainesd'applications [15] tant dans le domaine militaire (systèmede réfrigération pour sous-marinsnucléaires [16]) que dans le domainespatial (systèmede production d'énergiepour satellite[17]) ou le domainemédical [18]. et plus précisémentdanscelui desneurosciences rv, à basede sélénium A. Cristallographie a. Casdu tellururede bismuth par plusieurs de ce composéont été déterminées Les valeurscristallographiques une auteursfI9,20,211 qti décriventle tellururedebismuthcommeun composéqui possède 9 au groupeRJm (D:) simplecorrespondant stnrcturerhomboédrique avecun motif par maille. Il est caractérisépar les élémentsde symétrie suivants : des autres mi-chemin entre les plans de réflexion La structureconsisteen un empilementde couchesd'atomessuivant la direction (111) du rhomboèdre.Cependant,il est généralementdécrit dansune maille hexagonalequi permet de mettre en évidence un empilement de couches d'atomes de la même espècedont la séquencede couchesest Telr;Bi TeplBi Telr; définissantun quintet de base. L'environnement atomique des deux types de tellure est différent. En effet, les Telz; ont six atomes de bismuth pour plus proche s voisins à égale distance alors que les Telr; possèdenttrois atomes de bismuth pour plus proches voisins et trois atomes de tellure du quintet suivant. Les différentescouchesatomiquesde la séquencesont disposéesperpendiculairement à l'axe ternairede la maille rhomboédrique,qui est égalementI'axe c de la maille hexagonale (figure 7). La maille hexagonalecomporte trois quintets composéschacun de cinq plans alternés. Les valeurs des paramètres de la maille hexagonale sont a6 = 4,3852 A et c6:30,4830Al22l. Les distancesintercoucheset celles des diversesliaisons calculéespar Kullmann l23l à 77 K sont donnéesdans le tableau2. Kullmann(1984)[23] Telzy-Bi Bi-Te1ry Te11y-Teir1 Distancesentreatomes 3,246L 3,065Â A 3,621 distancesintercouches 2,032A 1,729 A A 2,598 tableau 2 : distancesintercoucheset interatomiques en fonction du type de liaison 10 T e( 1) Te(2) Bi fieure 7 : mailleshexagonales(a,b) et maille rhomboédrique(c) [24] sont de type Van der Waals [25,26], tandis que cellesentreles Les liaisonsTe11y-Te1ry Telry-Bi et Bi-Te1zy sont de tlpe covalent avec une faible ionicité du au fait des prochesdu bismuth (1,9) et du tellure (2,I)' électronégativités La structure lamellaire du BizTe3 lui confere donc une grande facilité de clivage suivant les plans (001). Ceci est attribué à la faiblessedes liaisons entre quintets c'est à dire Comme l'environnement atomique des deux types de tellurure est des liaisons Te11;-Teqr;. different, il en résulte que la liaison Bi-Te1zyest plus faible que la liaison Bi-Te1ry.Cette structure lamellaire a pour conséquence l'apparition d'une grande anisotropie pour les propriétésphysiquesdu matériau (électriqueset thermiques).Par exemple,dans le cas de la 11 conductivité thermique mesurée à 300 K, une valeur de 1,5 V/.m-l.K-l est observée perpendiculairementà l'axe c tandisqu'une valeur de 0,7'W.m-l.K-1est obtenueparallèlement àI'axec[1]. b. Casdu composéà basede sélénium Les composésà base de séléniumont la même structureque le tellurure de bismuth Quandun atome de sélénium remplaceun 127, 281.Dans les solutionssolidesBiz(Ter-*Sey)3 atome de tellure, cet atomede séléniumva d'abord se substituerau Telz;car liaison Bi-Telz; est plus faible et augmenterde ce fait I'ionicité de la liaison. Lorsque tous les sites de Telz; sont occupés (composé de stæchiométrie BizTezSe) par des atomes de sélénium, la substitutionse poursuit sur les sitesde Te11;[25]. En ce qui concerneles paramètresdu réseaucristallin de la maille hexagonale,il en résulteque le paramètrear,de la maille hexagonaledécroîtlinéairementde BizTel à BizSel de 4,38 Â à 4,I5 Â car le rayon atomiquedu sélénium (1,40 Â) est inférieur à celui du tellure ( 1, 6 0Â ). c. Lesdéfauts Le composé de tellurure de bismuth existe dans une gamme de composition étroite avec un écart à la compositionstæchiométriquedu à I'apparition de défautsponctuels.Sur les trois types de défauts proposéspar Krôger l29l : soit sur des sites interstitiels, soit sur des sites du réseaupar formation de lacunesou soit en voisins liés par des défautsd'antistructure sur les sites du réseau; seuls les deux derniers q/pes sont retenuspar differents auteursdans le cas de BizTer. En effet, la forte concentrationen trou2.10-le cm-3est attribuéeà la présence de lacunes sur les sites de tellure par Goldsmid [30], Satterthwaiteet col. [31] alors que Harman 1321,Horak et col. [33], Kutasov et col. [34] fondent cette constatationsur des défautsd'antistructured'atomesde bismuth sur les sitesde tellure. Ces défautsliés aux écarts à la stæchiométrie sont électriquement actifs et imposent donc des fluctuations importantes des propriétés semi-conductricesdu matériau correspondant. t2 Un composé est de type p lorsquele pourcentageatomiquede bismuth contenudans le composéest en excèspar rapport à la stæchiométriedu BizTel et inversementil est de type n, lorsquece pourcentageest inférieur à cettestæchiométrie[35]. a. Techniquesconventionnelles 1. Casdu BizTeg Depuis la première élaborationdu tellurure de bismuth réaliséepar réaction à l'état solide [36], d'autres procédésde synthèseont été développéset ils peuvent être classésen trois grandsbipes selonla forme finale désirée(monocristaux,poudres,couchesminces). L'obtention de monocristaux ou polycristaux peut se faire au moyen des techniques conventionnellesmétallurgiquesde cristallisationdirecte telles que le déplacement zone fondue (méthodeBridgman ou TravellingHeaterMethod Ï37,38,32, 13,39, 40, 4l)),la méthodeCzochralski142,431.Cet ensemblede techniquesconduit à I'obtention de matériaux possédantune forte orientation cristallographique compte tenu du caractère anisotrope du BizTeE. Le second type, limitant ce phénomèned'orientation préférentielle,repose sur les procédésde métallurgie des poudres avec broyage et mélangeconstitutifs de i'alliage suivi d'un chauffageréactionnel en atmosphèreinerte et d'opération de frittage ou pastillage sous presse144,45,46,471. Le troisième t1æeest dû au progrès réalisé dans le domaine de la microélectronique qui pousseles recherchesvers I'obtention de matériaux de plus en plus résistants,performants et de très petitesdimensions148,49,50]. Des couchesminces de BizTel de bonnesqualités thermoélectriquespeuvent être réaliséesau moyen de techniques d'évaporation l5l, 52), de flash évaporation 153, 54), de pulvérisation cathodique [55], de jets moléculaires [56], d'ablation laser [57], par Chemical Vapor Deposition (CVD) [58], par Metal Organic l3 ChemicalVapor Deposition(MOCV) [59, 60, 61], par trempageà chaud [62] ou pat électrodéposition I I 5, 50, 63,64,l, 2, 3, 65,66,67, 68,69,70]. 2. Casdu Biz ( TeopSesdg La mé thode la plus courammentutilisée pour I'obtention de solutionssolides HeaterMethod173,74,751. Bridgman [71,,72]ou Travelling estla méthode Biz(Ter-*Sex)3 L'obtention de monocristauxest obtenueen utilisant la technique appeléezone parla méthode CzochralskiUS,T9l levelling176,771ou par flash évaporation Des couchesmincesde I à l0 prmpeuventêtrefabriquées [80, 8l], par Métal OrganicChemicalVapor Deposition[61], par procédésde métallurgiedes poudresavecbroyageet mélangeconstitutifsde I'alliagesuivi d'un chauffageréactionnelen atmosphèreinerte et d'opérationde frittage ou pastillagesous presse[82] et aussipar électrochimi e [66 , 50] b. bismuth De nombreux travaux ont été effectués afin d'optimiser le facteur de mérite en constituant des alliages bismuth-tellure ou bismuth-tellure-sélénium.Ainsi les valeurs des coefficients Seebeck obtenus, pour des films minces de BizTer de type fl, ptr différentes méthodesde synthèse,var de -60 pV.K-r à -200 pV.K-t. Cependant,quelles que soient la méthode de synthèse,la pratique d'un recuit sur les films minces permet d'améliorer les propriétésthermoélectriques(tableau 3). t4 p Référence Zou et col. Composition BizTet co- n c[ pç).m PV.K I 12,9 Z lor Kl recuit -200 évaporation [51] Giani et col. synthèse Type Bi2Te3 MOCVD Bi2Te3 électrochimie n -200 n -63 [61] Miyazaki et col. [67] Magn et col.l2l Fleurialet Bi2Te3 électrochimie n Bi2Te3 électrochimie n t0 BizTez,zSer MOCVD n BizTez,zSerévaporation n -60 -60 non z -200 col. [50] Giani et col. non p 300"c JJ -260 1,3 30 -90 15 -200 r,7 r,6 aa non [61] Foucaranet col. [80] non 250'C de fype n table au3 : propriétésphysiquesde films mincesd'alliagesbismuth-tellure-sélénium oup C. Synthèseélectrochimique L'électrochimie est adaptée à la mise en place d'une synthèse conduisant à la formation de matériaux en couches minces. Comparativement aux techniques physiques, l'électrodépositionprésente plusieurs intérêts. C'est une technologie de mise en æuvre requérant des équipementssimples d'où un aspect économique appréciable.Elle permet 15 égalementd'obtenir des vitessesde dépositionpouvant atteindrel0 pm/tr ainsi que la de contrôlerl'épaisseur, I'obtentiond'élémentde grandesurface.Elle permetégalement stæchiométrieen intervenantsur les paramètreschimiques(concentrationdes solutions)et (potentielet densitéde courantsappliqués,tempsde déposition). électrochimiques par électrochimie b. Chronolooiede l'élaborationde BiaTeg L'électrodépositiond'alliages à base de bismuth et de tellure a été publiée par une équipejaponaiseen 1993 [ 63] qui, en partantd'une solutioncontenantdu nitrate de bismuth à différentes concentrations et de l'oxyde de tellure à 1,5 mM en milieu nitrique à un pH compris entre0,7 et I sur une feuille de titane, a montré la possibilitéd' obtenir un mélangede produit de couleur noire contenant du Bi-Te et du tellure métal suivant un phénomène de codépositionpar voie potentiostatique. En 1994 , ces mêmes auteurs[64] ont montré que la composition de l'électrolytejoue un rôle primordial sur la composition des films à un potentiel fixe (-250 mY/Ag/6sç').En effet, une analysepar diffraction des rayons a mis en évidencela possibilité d'obtenir des composés intermétalliquesde BizTel ou de sa solution solide Biz+*Ter-* en prenant des concenfrationsen bismuth et tellure identiques. De 1994 à 1996, Magri et col.[, 2, 3, 831 montrent la possibilité de synthèse électrochimique, par voie galvanostatique,de semiconducteursd'alliage bismuth-tellure développant des propriétés thermoélectriques. Cet auteur décrit la synthèse comme une électroformation directe à partir d'une solution contenant des ions Bi3* et TeN. Les films minces de BizTel de type n sont obtenusen partant d'une solution stæchiométriquede rapport Bi/Te :213, Bi/Te = 1, Bi/Te : 413en milieu nitrique. Tous les films possèdentun excèsde tellure et sont monophasiquesavec une structure identique à celle du BizTel. De plus, cet auteur met en évidence une évolution du pourcentage atomique de tellure dans le film en fonction des densitésde courant appliquées.En effet, plus la densitéde courant augmente, plus le pourcentageatomiquede tellure dans le film diminue' En 1998, Mamedov et col. [65] reprennentI'idée de codépositionlors de l'étude des courbesde polarisationsde solutionsà base de bismuth et tellure dans un milieu HCI-NH4F' Les composésobtenus,ptr variation de potentiel sont tous amorpheset conduisentdans tous les cas à un composébiphasécontenantdu BizTe3âvec soit une phasecorrespondanteà du t6 tellure lorsque le composéest déposéà de faibles potentielscathodiquesou soit avec du bismuth quand le potentiel appliqué augmente.La déterminationdu type de conductivité par la méthode de la sonde thermiquemontre que dans le premierscas les composéssont des semi-conducteursde type n et que dans le deuxièmecas ils sont de qpe p. En 1999,Fleurial et col. [50, 66, 15] montrentla possibilitéd'électrodéposerdesplots de semi-conducteurs de type n de BizTe3 et de type p de Biz-*Sb*Te3de 6 et 60 pm de diamètreet réalisantainsi, par voie électrochimiqueh fabication de module Peltier [10]. La synthèseélectrochimique du tellurure de bismuth dont la stæchiométrieest BizTel @0% at.Bi et 60%oat.Te) est réaliséeen milieu nitrique à pH 0, avec des solutionsdont le rapport Bi/Te -5 est compris entre 0,7 et 0,8 et dont le potentiel de déposition cathodiqueest compris entre et-75 mVÆCS. Les vitessesde dépositionsont comprisesentre 4 et 15 pm/tr tandis que la rugosité est inférieure à I trrm.Les composésobtenuspossèdentune orientation préférentielle suivant le plan (11.0) et un coefficient Seebeckde l'ordre de -60 pv.Kt à température ambiante. Récemmenten 2001 les études,effectuéespar Miyazaki et col. [67], sur une solution de rapport Bi/Te : 2 en milieu nitrique à un pH de 0,5, montrent qu'il est possible en contrôlantle potentiel de dépositiond'obtenir à partir d'une seulesolution soit un composéde -63 t17pep soit un composéde type n de Bi2Te3âvêc une valeur de coefficient Seebeckde pV/K à 300 K pour un composéde type n. Ainsi, ses recherchesont démontréque plus le potentiel imposé est fort, plus le pourcentage atomique de bismuth dans le composé électrodéposéaugmente.Cependantcette équipe n'a effectué aucunecaractérisationchimique mais se baseprincipalementsur l'évolution des paramètresde des composésélectrodéposés maille (le paramètre a6 augmentant quand le composé présente un excès de bismuth par rapport à la stæchiométrie) et sur la dé du coefficient Seebeckbien qu'aucune valeurne soit donnéesur les composésde type p obtenus. Une autre étude publiée en 2002 par Martin Gonzales et col. [68] réalisée sur l'électrodépositionde tellurure de bismuth à 2" C à pH 0, sur électrodede platine, à partir d'une solution de rapport Bi/Te = 314,affirme que la dépositionpeut s'effectuersuivant deux réactionsdépendantesdu potentiel appliqué.Lapremière est la réductionde HTeO2en Teo suivi d'une réductionde Teo avec les ions Bi3* qui permet de former BizTel à des potentiels inférieurs à -0,5 VlAgl^Ect. La deuxième réaction à des potentiels supérieurs ou égaux à 4,5 Vl Ag/,.ocrestla réductiond'HTeOz* en HzTe suivie d'un réactionchimique avec Bi3*. L'obtention de tellurure de bismuth s'effectue entre des potentiels compris entre Il est ainsi possibled'obtenir des composésprésentantun 4,lZ Y lAù,.ectet 4,52 Y lAgl 69ç1. 17 excèsou un déficit en bismuth et ceci à partir d'une seuleet même solution. Les composés présentantun déficit en bismuth sont constituésd'une surfacetrès fine alors que ceux ayant un excès de bismuth sont constituésde grains plus importants.Leurs analysespar diffraction desRX montrentla présenced'une orientationpréférentiellelà encoresuivant le plan (11.0). Un autre article publié par Golia et col. [69] relate la déposition électrochimiquede frlms minces de BizTel à 70"C pendant 30 min sur un substratde SnOz : F. Ces auteurs montrent que, en partant d'une solution dont les quantitésdes deux espècessont identiques, les composésobtenusprésententun excèsde tellure.Par contredèsque la quantitéde bismuth augmente,la formation d'un composéprochede la stæchiométriedu Bi2Te3est obten u. Bien que differentes techniquesexistent pour l'élaboration en couches minces de matériaux thermoélectriques,le mode de synthèseque nous avons choisi est la synthèse électrochimique,d'une part à cause de son faible coût et d'autre part gràce à sa facilité d'utilisation. Nos choix se sont ainsi portés sur deux matériaux thermoélectriques, le tellurure de bismuth et son alliage à basede sélénium.Concernantle tellurure de bismuth BizTel et au vu des différents travaux de recherche effectués, nous nous sommes attachés à I'obtention du type n et du type p et ceci à partir d'une seulesolution,permettantainsi d'avoir la possibilité de réaliserdirectementles deux typesde semi-conducteurs' Pour le deuxième composé, I'objectif est I'obtention par voie électrochimiquedu corrospondant également au meilleur matériau thermoélectrique composé Bi2Te2,7Ses,3 d'aprèsles donnéesbibliographiques. l8 TT CffiAPTTRE ENTALEs UES.E'XFERTM TECHNTQ I. Le choix d'une voie électrochimiquepour la synthèsedu tellurure de bismuth et de son alli age à base de sélénium impose , en premier lieu, la recherchedes conditions de milieu appropriées pour l'élecholyte en tenant compte de la chimie spécifique des différentes espèces. A. par la chimiedu bismuth a. Conditionsimposées Le bismuth est un semi-métaldu groupe V qui possèdela configuration s2p3.Il est présenten solution, selon le pH et la concentration,sous la forme d'espècesau degré +III (Bi'*, BiOH2n,BiO*, 8i203)et éventuellementau degré+V (BiO3) (figure 1). Mais seul l'état +III permet l'obtention de solutions concentréesde cet élément. Compte tenu de sa taille et de sa charge,lecation Bi3* développeun caractèreacidemarqué en solution aqueusecaractérisépar les équationssuivantes[84] : Bi3*+ HzO -+ B1OHZ*+ H* PKo:2 BioH2* + pKa:3,37 Bio*+g* Pour une bonnestabilité des solutionset éviter la précipitationdu bismuth, la présence halogénurestels que Cl-, Br-, Idoit être évitée. Les solutionssont donc préparéesen milieu nitrique par dissolutionen milieu acidede nitratede bismuth Bi(NO3)3,5HzOde puretéanalytique. t9 6769r0llt2t31415 2 1,8 t,6 1,4 tV t,a 1- I 0,8 0,6 lBi o,4 0,2' Ba?03 BL0;? 0 -o,2 -o,4 -0,6 -0,8 -l -1,2 A Y -1,4 9 -1r6 -1,8 figure I : diagrammed'équilibres potentiel-pH du bismuth à25"C d'après Pourbaix [84] b. Conditionsimposéespar la chimiedu tellure Les états de valence les plus couramment rencontrés dans la chimie en solution du tellure sont -II, *fV, et +VI. Le diagrammepotentiel-pH témoigne de leur stabilité. Le tellure apparaît comme un élément relativement noble, stable en solution aqueuse exemptes d'oxydants(figare 2). 20 r6 17 2? I, H21e0a Te0f- HTe0a 1,4 1,4 I, t2 I 0,8 0,6 0,4 0,2 n =0-2-4'6 e à-=-__ =@=È -0,4 -0,6 -0,8 -l H2Te -ï logPH,T"='H2re,gl -z'-t q l2) -T, ', l'l, 'l,,l''l 0 I 2 3 4 5 6 7 I I't I0 lt -1,4 4à :v Te-''''l-1,$ 12 13 14 l5oHl6 fieure 2 : diagrammed'équilibrespotentiel-pHdu tellure à25"C d'aprèsPourbaix[84] Des espècessolublescompatiblesavec le domainede I'eau existentpour le degré+IV qui possèdeun caractèreacidetrès prononcé[84]. Teo* + 2H 20 - + HT e er" + 3 H* P K u : 1, 1 I HTe 64* + pKa :2,07 TeOz ++ H- De plus TeOz se présentecomme un oxyde amphotèreen se dissolvant en milieu basiquesousla forme HTeOr2-et TeOr2-. Ainsi pour préparerune solutionélectrolytiqueà basede tellure, il est nécessaire d'utiliserun milieu acideoxydantpour stabiliserune forne soluble.Les solutionssontdonc obtenuespar attaqueoxydanteà l'acidenitriquede tellureélémentairesuivantcetteréaction: 4 N O r + 7 n + 3 T e o+ 3 H r e O! + 4 N O + z H r O 2l c. Conditionsimposéespar la chimiedu sélénium Le séléniumest un corpsasseznoble puisqu'uneportion étenduede son domainede stabilitérecouvreceluide I'eau (figure3). C'estdoncun élémentstableen solutionaqueuse au diagrammed'équilibres de tout pH exemptesd'oxydantset de réducteurs.Conformément HSeHzSeou en séléniures [84], le séléniumpeutêtreaisémentsoitréduiten acidesélénique Les degrés et Se2-,soit oxydéen acidesélénieuxHzSeOrou en séléniteHSeOg-et SeO32-. d'oxydationlesplus importantssont-II, +[V et +VI. La solution électrolyiqueà basede séléniumserapréparéepar dissolutionen milieu nitriquedeNazSeOg. 13 14 t 5 1 6 -l?,2? HzSe206? @ t,8 t,6 t,4 I,Z I wÀg--,-;--------_ 0,8 0,6 o,4 o,? :Ë ---@-È {-*t:---r 0 -o,2 -o,4 -0,6 *0,8 -1,2 -t,4 -1 A t4 'uprtu d'équilibrespotentiel-pHdu séléniumà25 'C d'aprèsPourbaix[84] figure3 : diagramme 22 B. En premier lieu, l'analyse du comportementélectrochimique des différentes espèces est obtenu paï une étude sur microélectrode de Levich dans un montage classique à trois électrodes(figure 4). L'électrode de travail est une électrode à disque tournant de platine (EDI 101T, :625 tours.min-l)est Radiometer)de surface3, I 4 mm2 et dont la vitesse de rotation ( v rotation c ontrôlée é lectroniquement de manière à se trouv er constammenten régime de diffusion convection stationnaire. L'électrode de référence est une électrode au calomel à KCI saturé (XR 140, Radiometer ),elle est séparéedes solutionsétudiéespar un pont salin rempli d'une solution de KNOI (1M) de façon à limiter la diffusion des chloruresau travers de l'électrode et donc d'éviter la précipitationdu bismuth (III) avecles chloruressousla forme BiOCl. L'électrodeauxiliaireest constituéed'un fil de platine (XM 100,Radiometer). Electrodede platine tournante Electrodede référence au calomel à KCI saturé Electrodeauxiliaire en platine Pont salin Cellule envere Solution d'étude en des espèces électrochimique fisure 4: celluleutiliséelors de l'étude du comportement solution 4a z) relevésavecune vitessede balayagede 30 mV.min-' Les tracésvoltampérométriques (potentiostat PGZ 301),piloté par ont été réalisésavecun appareilde marqueRadiometer 4). ordinateur(logicielVoltamaster s'est étenduà l'obtentionde dépôtsen mode En deuxièmelieu, le développement Pour l'élaborationdes films minces,les étudesont été potentiostatique et intensiostatique. menéesà températureambianteet sansagitation(figure 5). Le montageélectrochimiqueest PGP 201 (Radiometer),et I'ensembleest piloté par un relié à un potentiostat/galvanostat ordinateur. un disqued'acier inoxydabledont la surface L'électrodede travail est généralement polie jusqu'aupolissagediamantde 1 pm puis nettoyéeà est de 2,15I cmz préalablement l'alcoolet à l'eaudistilléeavantchaqueutilisation. L'électrodede référenceest une électrodeau calomel à KCI saturéIXR 140, munied'un pont salin. Radiometer) placé d'un disquedeplatine,de 1 cm de diamètre, L'électrodeauxiliaireestconstituée au dessusde l'électrodedetravail(XM 150,Radiometer). Electrode de référence au calomel à KCI saturé Electrode auxiliaire en platine Pont salin Matériau électrodéposé Celluleà vis en Téflon Electrode de travail (Inox) de2 cm' surdessurfaces figure5 celluled'étudepourl'électrodéposition 24 Quelle que soit la cellule utilisée, un barbotageà I'argon (de pureté U) est effectué pendant 30 minutes avant chaque manipulation de manière à désoxygénerla solution. Une atmosphèreinerte de ce gaz est maintenuelors des expérimentations. Avant chaque utilisation l'électrode de référence est vérifiée en prenant sa valeur de potentiel par rapport à l'électrode en disque de platine (XM 150, radiometer) dans une à pH 7. Le potentielde l'électrodede référencepar rapportà solution de Fe(CN)oo-lf'e(CN)o'une électrodede platine dansce milieu est de 2I5 mY. C. Déterminationdu rendementfaradique Le contrôle des films électrodéposéspeut être effectuê par la mesure du rendementen masse. En effet, connaissantla quantité de Coulomb (Q) utilisée lors de la èse électrochimique, il est possible de calculer les masses de Bi*Te, ou de Bi*TerSe, théoriquementdéposées. Ainsi, en mode potentiostatiqueQ est donnéedirectementpar I'intégrationdescourbes i:(t) danschaquecas étudiéalors que, en mode intensiostatique, Q est déterminéeen utilisant l a f o r m u l eQ = i x t où : i : intensitéimPosée(A) t : tempsde déposition(s) Le rendementfaradique est calculé par le rapport de la massed'alliage réellement sur la massede Bi*TEou de Bi*TerSe"théoriquementdéposée(mtneo,iqu.). déposée(m.errr") Ainsi R _ lllréette,rr} llhhéonque rrlrée1e correspond à la masse réellement déposée et est déterminée en réalisant une peséede l'électrodeavant et aprèsélectrodéposition. est calculéeà partir de la relation : rnthéorique 25 lTlthéorique| avec QM NF Q : nombre de Coulomb M : massemolaire du produit électrodéposé F : Faradav n, no-br" d'électrons engagésdansla réaction permet d'obtenir l'épaisseur La déterminationde la massede composéélectrodéposé du dépôt (cm) en utilisant la formule suivante : " =fg m : massede dépôt (g) avec p : den sité(7,6g.cm-3) S : surface (r*') Pour un composébinaire, la réactionde synthèseélectrochimiqueconsidéréeest la suivante: xBi 3++ + yHfeo)+ 3yH + (:x +4y)e-+ Bi,Tey+ 2yHrO enPrenantx * Y: 5 alorsquepourle composéternaire,la réactionest: * Bit * + y HTeo* +, s"n' + 3y H. + (3x + 4y + 4z)e-+ Bi,Teyse2+ 2y H ro enPrenantx*Y*z:5 II. Méthodesde caractérisation de tellurure de bismuth et de son Après élaboration,les matériaux électrodéposés alliageà base de séléniumpeuventêtre caractérisésd'un point de vue cristallographique, morphologique,rugosité,textureet typede conductivité. stæchiométrique, 26 A. Analyseet imagerieélectronique a. Analvsede la stæchiométrieet de la morpholooique Les échantillons sont étudiés par microsonde de Castaing (CAMECA SX 50 et CAMECA SX 100) et par Microscope Electroniqueà Balayage(M.E.B., HITACHI 52500 LB ou PHILIPS XL 30). Ces analysesont été effectuéesau ServiceCommun de Microanalyse de l'Université de Nancy I, au Laboratoirede Chimie du SolideMinéral. Les composésà soumettreà l'étude sont nettoyés(par II NOI lM puis par de l'eau distillée) puis sont retirés du support en acier inoxydable gràceà une lame de rasoir. Deux modesde préparationdifférentssont utilisés : contact avec l'électrolyte sont placées sur un disque d'acier inoxydable recouvertd'un scotchdouble faceen graphite. résine (Epofix) puis polis en premier lieu à I'aide de papiers SiC de granulométriedécroissante(500, 800, 1200, 2400) et ensuite avec des pâtes diamantéesde 3 et 1 Fm. Une fois les échantillonspolis, ils sont métallisésau carbone avant d'être analysésà la microsonde électronique (les standards utilisés sont Bi2Te3et PbSe). Les stæchiométriesde chaqueélémentde l'échantillon sont déterminéesavec une effeur égale à l%o. Pour chaque échantillon, dix points de mesure sont effectuéset les valeurs donnéescorrespondentà la moyenne de ces points. b. Analysede la rugosité Le microscope à force atomique (Topometrics explorer) permet d'atteindre une image de la structureprochede l'échelle atomique,de très nombreusessurfacesconductricesou non. 27 Le principe est fondésur la mesuredesforcesd'interactionentreune pointeatomique En mode fixéeà I'extrémitéd'un leviertrèssensibleet lesatomesde la surfaced'un matériau. utilisé), lors du balayagede la pointe,le contactà force constante(modele plus couramment sa hauteurpar rapportà l'échantillonde manièreà mesurer cantileverréajusteconstamment du cantileverselonI'axe desz permettentd'obtenirla une force constante.Les déplacements sont de très tridimensionnelles topographiede l'échantillon.Ces imagesmorphologiques hauterésolutionet permettentde déterminerla rugositéRMS (RootMean Square). estmontrésur la figure 6. Le principede fonctionnement MrRorR /Ï 7;7--*--.lll 7l/., PHOTODETECTEUR CANT]LEVEF fiCure 6 : schémasimplifié permettantde voir le principe de fonctionnement Pour la préparationd'échantillon,la méthodene nécessitantpas de contactélectrique, sontplacéssur un scotchdouble face. les films minces électrodéposés B. Analyseradiocristallographique Les matériauxobtenussont analyséspar diffraction desrayonsX à l'aide d'un appareil de marque INEL muni d'un compteur courbe CPS 120 et utilisant comme sourCela radiation Kor du Cobalt. Les films minces électrodéposéssont placés sur un porte échantillon tournant sur lequelun scotch double face est posé.Ainsi I'analyseen réflexion est réaliséedirectementsur les matériauxnon broyés.CependantI'utilisation d'un scotchdouble face montre, de tempsen temps,I'apparition d'un fort bruit de fond. 28 Les erreurssur les valeursdirectesdes anglesde Bragg sont corrigéespar I'emploi du silicium comme étaloninterne. A partir des réflexions observéessur le diagramme de diffraction de rayons X et de leur indexation (h, k, l), la détermination précise des paramètresde maille hexagonalea pu être entrepriseà I'aide du programmePAFI qui utilise la méthodedesmoindresca:rés. c, L'étude de la texture des échantillons a été Éa,lisée au Laboratoire d'Etude des Textures et Applications des Matériaux (LETAM) de Metz en collaboration avec B. Bolle (Maître de Conférences). a. Princioe La texture représenteles orientations cristallographiquesque prennent les grains d'un métal dans des conditions données. La position des gtains étant généralementrepérée par rapport à un repèrelié à l'échantillon (X,Y,et Z) où Z est la directionnormale et X et Y sont deux directionsdu plan de l'échantillon (figure 7). figure7 : repèrederéférencedescristallitesde l'échantillon 29 La déterminationde la texture d'un échantillon consistedonc à évaluer les orientations cristallographiquespréférentiellesdes grains qui le composent.L'analyse de la texture passe alors par la mesure expérimentalede figures de pôles qui donnent la densité de pôles hkl en fonction de leur orientation par rapport l'échantillon. Les figures de pôles sont obtenuesgrâceau phénomènede diffraction des rayons X sur les plans réticulaires(hk.l) d'un cristal. Quandun faisceaude rayonsX, de longueurd'onde 1", irradie un ensemble de grains, le faisceau est diffracté par les familles de plans cristallographiques(hk.l), uniquementsi les plans sonten position de Bragg. On matérialise alors I'intersection d'une direction /.ron considérée (7,r, étant la normale au plan (hkl) qui diffracte) avec une surface sphérique de rayon égal à 1, appelée sphèredes pôles, par un point P, appelépôle du plan (hkl) (figure 8). Une droite reliant le point P au pôle sud (S) de la sphèredes pôles traversele plan équatorial (r) en P'. P' est appeléprojection stéréographiquede P sur n. Ainsi on appelle figure de pôles, la projection de I'ensembledes normalesà une famille donnéede plans réticulaires{hkl}, stéréographique provenant de tous les grains de l'échantillon, projetés dansun plan de référence æ.Une figure de pôle comporte des lignes de niveaux qui relient les points possédantune même intensité, c'est à dire des orientationssuivant lesquellesla densitéde plans (hkl) est identique.Pour balayer la sphère des pôles, l'échantillon effectue deux rotations simultanées autour de deux axesperpendiculaires(figure 9) : l'échantillon, y déterminel'angle mesuré à partir de la direction normale (Z) et varie enffe 0 et 90" l'échantillon et varie de 0 à 360' 30 za ]L figrue 8 : sphèredespôles figure 9 : axesde rotation des échantillons La position de chaquenormale est alors définie par les coordonnées(V,p). Dans le but de définir, pour un même échantillon, son orientation cristallographique avec précision, il est nécessaired'utiliser plusieurs figures de pôles [85, 86]. L'orientation préférentielleest généralementdécrite par le plan (hk.l) parallèle à la surface de l'échantillon. La plupart des mesurescristallographiquessont faites à partir de la diffraction des rayons X I'aide d'un goniomètrede texture [87, 88]. 3l. Le goniomètre de texture conçu au Laboratoire d'Etude des Textures et Applications aux Matériaux (LETAM) de Metz par le professeur J.J.Heizmann [89] possède 4 axes de rotation (figure l0) : axe est perpendiculaireau plan d'incidence (plans contenantle rayon incident et le détecteur)des rayons X toumer le goniomètreet de bien positionnerl'échantillon Jt."1Sr v, *{".- {r â 1 riv n-:{ p fhn d"tReslçnôÙ fieure l0 : goniomètre de texture Ces quatrerotationspermettentd'amenerles normales fr<a,oen position de bissectrice de I'angle(n-20) dansle plan d'incidence. La sourcede rayons X est un tube à anticathodede fer Ko ()u: 1,9373 Â), les rayons diffractéspar l'échantillon sont captéspar un détecteurcourbe(INEL CPS 120). Cet appareil permet d'enregistrer plusieurs figures de pôles simultanément et d'obtenir les diffractogrammesen 2 0. Cette étude est réaliséeà I'aide d'échantillonsmassifsplacés sur une lame de verre et maintenusà I'aide de ruban adhésif. 1^ La détermination du coefficient Seebeckou pouvoir thermoélectriqueo se définit de la manière suivante : o= LI/ LT A,V représentela différencede potentielaux bomesde l'échantillon où : la différence de températureentreces deux points LT Une représentation schématique du montage conçu au laboratoire pour la mesure du sur la figure 11. coefficientSeebeckprise parallèlementau film estreprésentée Acquisition sur Keithley2000 tr'- Thermocotple type K + nocorprerype^. dénôt Source chaude Source froide SupportPVC -} ÂT: 3o <- Module Peltier figure11 : principedemesuredeI'effet Seebeck La différen cede température AZ estétabli e en plaçant l'échantillonentreune source froide et une sourcechaudedont les températuresrespectivessont mesuréesà l'aide de de typeK. thermocouples La différencede potentielest évaluéeà partir desbranchespositivesou négativesdes thermocouples. Des mesuresde coefficient Seebeckont égalementété effectuéespar I'IPM de Freiburg[90]. aa JJ HHg 4HÆPHTRffi AUX DE&IATERT HLABORATTON DHTYPEBlaTes BfNAfREiS Dans le but d'obtenir des films minces de bonne qualité thermoélectriqueet avec la stæchiométriedésirée,nous nous sommespenchéssur l'électrodépositionde ce composéet plus particulièrementsur les différents paramètrespouvantintervenir sur sa composition. La première partie de ce chapitre est consacréeà I'analyse des comportements électrochimiquesde solutions contenantuniquementsoit Bin soit TeN puis des mélanges contenantces deux espècesen différentesproportions.Nous avonspoussé,par a suite, nos recherchessur la déterminationdes coefficientsde diffusion et de l'épaisseurde la couchede diffusion, en régime de diffusion "naturelle stationnaire".Ces valeurs nous perrnettentalors de calculer les rapports des concentrations,dans la solution, en bismuth et en tellure, pour obtenir un composéde stæchiométriebien définie soit un excèsen bismuth, soit un excèsen tellure. La deuxièmepartie de ce chapitre est consacréeà la synthèseélectrochimique.Elle s'organiseen deux volets. Le premier concernela mise en place des conditions de synthèse par voie potentiostatiqueet le deuxièmeest l'adaptationde ces conditionsà une synthèsepar car cettevoie serala voie utiliséelors de l'électrodépositionsur gtandes voie galvanostatique, surfaces. A. des solutionsde bismuth+III, de tellure +[V et électrochimiques Les comportements cyclique.Pour les de solutionscontenantles deux ions sont étudiéespar voltampérométrie solutionsdebismuthet detellureseul,I'explorationestinitiéeà partirdu potentield'équilibre à i = 0, elle sepoursuitenbalayagecathodiqueavantd'êtreinverséeenbalayageanodique. 34 du bismuth a. Comoortementélectrochimique sont obtenuesen appliquant,à une microélectrodede Les courbesintensité-potentiel platine toumante,un balayagecycliqueen potentiel.La courbei = f(E) obtenueen milieu de bismuth de 1,39.10'3M, en partantde acide nitrique I M pour une concentration +100mV/ECS,estdonnéefigurel. Bit.+3e 0 50 Bi3-+ 3 e' -t00 150 200 E (m /ECS) figure 1 : comportement électrochimique d'une solution de Bi3* de concentration de 30 mV/min, rendementfaradique Qn I Q, : 1,39.10-3M en milieu nitrique I M, v bahyage: 9s% L'exploration cathodique met en évidence la réduction de I'ion Bi3* en bismuth métalliquesur l'électrode sous la forme d'une vagueprésentantun palier caractéristiqued'un courant limite de diffrrsion suivant la réaction : + u-+ fiii Bi3* par un potentielde demi-vaguede -90 nYIECS lors Cetteréductionest caractérisée du balayagevers des potentielscathodiques(a) et de 30 mV/ECS lors du balayageretour (b). L'inversion du sens debalayagepermetd'obtenir la connaissancecomplètedu système Bi3*Æi'. Le voltampérogrammeobtenu ne présentepas les caractéristiquesd?un système 35 rapide.Le bismuth électrodéposéest oxydé par inversionde potentiel sous la forme d'un pic d'oxydation,s'étalantsur une zonede 100 mV/ECS et centrésur un potentielde +5 mVÆCS. du tellure électrochimique b. ComooÉement Le voltampérogrammeà balayagecyclique du systèmeHTeO2-/Teo(figure 2) montre que ce systèmeest lent. L'exploration cathodiqued'une solution de TeN, de concentrationde 2,67 J0-3M, met en évidenceune vague de réduction du tellure *fV en tellure métallique avec un potentielde demi-vaguede -160 mV/ECS lors du balayagevers des potentielscathodiques (a) et de -110 mV/ECS lors du balayageretour (b). Cette réduction s'effectue suivant la réactionsuivante : -)Te" + ZHzO HTeOi +3H* + 4eL'exploration anodique par inversion du sens de baiayage en potentiel montre l'oxydation du tellure métal en tellure +IV à un potentiel situé à environ +350 mVÆCS, centrésur +500 mV/ECS et s'étendantsur une zonede 300 mVÆCS. figne 2 : comportementélectrochimiqued'une solution de tellure de concentrationde = 30 mV/min, rendementfaradiqueQu I Q, : 2,67J0-3M en milieu nitriquel M, v buruy"s. 92% 36 c. Compoftementélectrochimiquedu Teryen orésencede Pour vérifier le comportementélectrochimiquedes solutionscontenantBin et TeN, nous avons repris les essaisde Magri [2] pour les rapportsBi/Te : 213, I et 413 en les sontmenéesde +600mV/ECS complétantpar rapportsBi/Te : ll2 et2. Lesexplorations et jusqu'à I'oxydationdes à -350mV/ECSlors du balayagevers despotentielscathodiques lorsdu balayage versdespotentielsanodiques. électrodéposés composés 1.
29,404
61/hal.archives-ouvertes.fr-tel-03417375-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
10,729
18,937
Renouveau des approches participatives pour la fabrique de la Smart City Clémentine SCHELINGS Dissertation présentée en vue de l'obtention du titre de Docteur en Sciences de l'Ingénieur de l'Université de Liège 2021 Ce document présente les résultats originaux d'une recherche de thèse menée par : Clémentine SCHELINGS Ingénieure civile architecte Faculté des Sciences Appliqué es Département UEE Université de Liège Quartier Polytech 1 Allée de la Découverte 9 Bâtiment B52 4000 Liège, Belgique [email protected] Composition du jury pour la soutenance de la thèse Promotrice Catherine ELSEN – Chargée de cours, directrice du laboratoire INTER'ACT – Faculté des Sciences Appliquées, ULiège Jacques TELLER – Professeur, directeur du LEMA – Faculté des Sciences Appliquées, ULiège Sandra BREUX – Professeure, responsable du Laboratoire des élections locales et directrice scientifique du réseau Villes Régions Monde – Institut National de la Recherche Scientifique (INRS), Montréal Nathalie CRUTZEN – Professeure, directrice du Smart City Institute – HEC École de Gestion, ULiège Stéphane DAWANS – Professeur, membre fondateur du groupe de recherches DIVA, chercheur membre du CIPA, membre du CERTES – Faculté d'Architecture, ULiège Pierre LECLERCQ – Professeur, directeur du LUCID – Faculté des Sciences Appliquées, ULiège Jodelle ZETLAOUI-LÉGER – Co-directrice de l'UMR CNRS 7218 La vue, membre de l'équipe du LET – ENSA Paris la Villette Citation Schelings, C. (2021). Renouveau des approches participatives pour la fabrique de la Smart City. Thèse de doctorat, Université de Liège, Belgique, pp. 376. Résumé Face aux enjeux démographiques et environnementaux, la Smart City s'impose peu à peu comme l'une des nouvelles stratégies de développement urbain. A l'origine essentiellement techno ique, ce nouvel « idéal » urbain a très vite soulevé des problèmes d'acceptabilité sociale vis-à-vis de l'imposition Top-down de solutions standardisées. Souvent négligés au profit d'une optimisation technologique, les citoyens sont pourtant la clef du succès ou de l'échec du modèle Smart City, car ils ont le pouvoir d'accepter ou de rejeter les solutions déployées sur leur territoire. Constatant l'importance de la participation citoyenne pour la fabrique de la Smart City et les limites récurrentes des approches participatives développées depuis les années 1970, la thèse vise à équiper les professionnels de l'urbain (ingénieurs, architectes, urbanistes), les décideurs et les citoyens avec de nouveaux cadres théoriques, méthodologiques et d'aide à la décision afin d'inclure les usagers finaux au sein du processus décisionnel de conception de nos futurs environnements urbains. En pratique, la thèse s'organise en trois grandes phases. Une première phase de diagnostic s'intéresse à la perception des citoyens vis-à-vis de la Smart City et à leur volonté de prendre part à son processus de conception. Une deuxième phase d'étude de cas multiples vise à mieux comprendre quelles formes de participation sont mises en place dans des Smart Cities reconnues pour leurs dynamiques citoyennes. La troisième phase d'expérience consiste en la mise en place concrète d'une méthodologie participative en Wallonie, sur base des données et bonnes pratiques collectées auparavant. De manière plus transversale, nous avons étudié trois modalités participatives fréquemment observées à l'ère Smart : la plateforme de participation (en ligne), l'atelier de co-conception (en face à face) et le budget participatif (mixte). La thèse contribue à l'état des connaissances et à l'étude des approches participatives pour la fabrique de la Smart City à plusieurs égards. Tout d'abord, ce travail opère une clarification essentielle entre trois modes de participation qui coexistent et s'entrelacent : les processus de codécision, de co-conception de projets et de coproduction de données. Au-delà de ces trois dimensions qui reflètent la finalité des processus participatifs, la thèse affirme également la valeur intrinsèque de la participation citoyenne en termes d'appropriation des solutions, de cohésion entre les citoyens et d'acquisition de nouvelles compétences. La thèse développe ensuite les rôles des concepteurs professionnels et des participants non-concepteurs dans les processus participatifs, mettant en évidence l'émergence de nouveaux statuts intermédiaires (« professionnels de la participation » et « citoyens ambassadeurs »). La responsabilisation des citoyens est nuancée par la critique d'un « Super Citoyen » utopique, à la fois engagé, créatif et connecté. En outre, ce travail ise l'impératif participatif et identifie un basculement amont-aval de la participation citoyenne à l'ère Smart. La thèse s'attache enfin à remettre en question l'échelle de la participation d'Arnstein (1969) et propose une adaptation du cube démocratique de Fung (2006) sous forme d'un « radar » multidimensionnel mieux adapté au contexte participatif et à la complexité de la Smart City, et à même d'accompagner les chercheurs, concepteurs, décideurs et citoyens dans la mise en oeuvre d'une démarche participative à l'ère Smart. Abstract Facing demographic and environmental challenges, the Smart City model increasingly becomes the chosen strategy to guide future urban developments. Initially essentially technocratic, this new urban "ideal" very soon raised social acceptability issues vis-à-vis the top-down imposition of standardized solutions. Often overlooked in favour of technological optimization, citizens are actually the key for the Smart City model's success or failure, because they have the power to accept or reject the solutions deployed on their territory. Noting the importance of citizen participation for the making of the Smart City and the recurring limits of participatory approaches developed since the 1970s, the thesis aims to equip urban professionals (engineers, architects, urban planners), decision makers and citizens with new theoretical, methodological and decision-support frameworks in order to include end-users within the design process of our future urban environments. In practice, the thesis is structured in three main phases. A first diagnosis phase focuses on citizens' perceptions of the Smart City and on their willingness to participate to its design process. A second multiple-case study phase seeks to better understand which forms of participation are implemented in various Smart Cities, recognized for their citizen-driven dynamic. The third experiment phase consists in concretely implementing a participatory methodology in Wallonia, on the basis of the previously collected data and best practices. In a cross-cutting way, we also studied three participatory approaches, which are often observed in the Smart era: the e-participation platform (online), the co-design workshop (faceto-face) and the participatory budget (mixed). The thesis contributes to the state of knowledge and to the study of participatory approaches for the making of the Smart City in several regards. First, this work provides an essential clarification between three participatory modes that coexist and intertwine: co-decision, codesign and data co-production processes. Beyond those three dimensions, which reflect the purpose of participatory processes, the thesis also affirms the intrinsic value of citizen participation in terms of solutions' ownership, cohesion among citizens and acquisition of new skills. The thesis then develops the roles of the professional designers and the non-designer participants throughout the participatory processes, highlighting the emergence of new intermediate positions ("professionals of participation" and "citizen ambassadors"). The citizens' responsibility is nuanced by the criticism of a utopian "super citizen", supposedly at the same time engaged, creative and connected. Moreover, this work relativizes the participatory imperative and identifies an upstream-downstream switchover of the citizen participation at the Smart era. The thesis eventually seeks to question Arnstein's participatory ladder (1969) and proposes an adaptation of Fung's democratic cube (2006) in the form of a multidimensional radar chart, which is better adapted to the participatory context and the complexity of the Smart City, and supports researchers, designers, city officials and citizens in the implementation of participatory approaches at the Smart era. Remerciements Tout d'abord, je tiens à remercier ma promotrice de thèse, Madame la Professeure Catherine Elsen, pour ses précieux conseils, son suivi régulier et son soutien à toute épreuve. Je la remercie chaleureusement de m'avoir initiée aux approches centrées usagers et d'avoir ouvert la voie aux démarches qualitatives en Sciences de l'Ingénieur. Merci d'avoir rendu ce parcours de thèse passionnant et de m'avoir transmis le goût de la recherche. Cette thèse n'aurait pu aboutir sans son aide et celle des nombreuses personnes ayant contribué de près ou de loin à ce travail. Mes remerciements vont également à : Mon comité de suivi de doctorat, les Professeurs Nathalie Crutzen, Stéphane Dawans et Pierre Leclercq, pour leurs conseils avisés et leurs critiques toujours constructives et bienveillantes ; Monsieur le Professeur Jacques Teller qui me fait le grand honneur de présider mon jury de défense thèse ; Les membres de mon jury, Mesdames et Messieurs les Professeurs Sandra Breux, Jodelle Zetlaoui-Léger, Nathalie Crutzen, Stéphane Dawans et Pierre Leclercq, pour l'attention et le temps qu'ils ont consacré à la lecture de ce travail, ainsi que pour l'expertise qu'ils ont apportée à cette thèse ; Toute l'équipe du LUCID pour m'avoir accueillie pendant mes premières années de thèse ; La nouvelle équipe du laboratoire INTER'ACT dont je suis fière d'être l'un des membres fondateurs ; Madame Lara Vigneron et toute l'équipe du WeLL pour nos collaborations fructueuses ; Madame la Professeure Mithra Zahedi pour m'avoir intégrée à l'équipe du GRAD, prodigué ses conseils et offert de nombreuses opportunités à Montréal ; Xaviéra pour son écoute quotidienne et son enthousiasme communicatif ; Adeline, Gwendoline, Maxim, Noëmie, Hafsa et Salma pour leur bonne humeur et nos échanges au sujet de nos parcours doctoraux ; Aurore pour sa pédagogie, sa patience et son humour ; Marine et Aurélie pour leurs relectures attentives et leurs encouragements ; Tous les experts rencontrés et interrogés au cours de cette thèse pour l'intérêt qu'ils ont porté à mes recherches et le temps qu'ils m'ont offert ; Tous les participants des ateliers participatifs locaux et internationaux, les Villes d'Arlon, d'Aubange, de Charleroi et de Liège, l'Éco Sainte-Véronique, le CEUM et l'Arrondissement de Mercier Ouest pour leur investissement et leur retour d'expérience ; FuturoCité et Digital Wallonia pour avoir intégré les idées citoyennes au réservoir d'idées du Hackathon Citizens of Wallonia ; Ma famille et mes amis pour leur soutien (chocolaté). Table des matières TABLE DES FIGURES VII TABLE DES TABLEAUX XI PUBLICATIONS ASSOCIEES A LA THESE XV PREAMBULE 1 INTRODUCTION 3 1 POURQUOI LA SMART CITY? 3 2 POURQUOI LA FABRIQUE? 5 3 POURQUOI UN FOCUS CITOYEN ET PARTICIPATIF? 6 4 NOTE DE POSITIONNEMENT : UNE THESE DEDIEE AUX PROFESSIONNELS DE L'URBAIN 8 5 PLAN DE LA THE SE 9 CHAPITRE 1 – ÉTAT DE L'ART 11 1 LA SMART CITY – UN PAYSAGE EVOLUTIF ET CONTROVERSE 11 1.1 1.1.1 Raison d'être de la Smart City, entre durabilité et efficacité 12 1.1.2 Origine du concept : des idéaux urbains à la ville d'IBM 13 1.1.3 Un paysage définitionnel en quête de cohésion 14 1.1.4 Les définitions fondatrices : caractéristiques, dimensions et composantes de la Smart City 15 1.1.5 Un écosystème d'acteurs Smart, source(s) de « smartitude » 18 1.1.6 Notre posture vis-à-vis de ces définitions 20 1.2 Les modèles de la Smart City : du produit commercial à l'intégration contextuelle et humaniste 23 1.2.1 La Smart City d'IBM, un produit commercial universel 23 1.2.2 La Smart City conçue de zéro, une utopie émergente 24 1.2.3 La Smart City réelle, vers une intégration contextuelle et humaniste 27 1.3 2 Les définitions de la Smart City 11 Revue critique de la Smart City 30 1.3.1 Faiblesse : du néolibéralisme à la fracture numérique 30 1.3.2 Menace : illusion de durabilité et de « smartitude » 31 1.3.3 Force : un concept en constante évolution 33 1.3.4 Opportunité : un investissement pour l'avenir 33 LA PARTICIPATION CITOYENNE EN SOUTIEN D'UNE SMART CITY « POST NÉOLIBÉRALE » 36 2.1 Intérêt de la participation à l'ère des Smart Cities 36 2.1.1 Des solutions plus pertinentes 36 2.1.2 Des solutions plus durables 37 2.1.3 Des solutions plus acceptables 38 2.1.4 Des solutions plus investies 39 2.2 Bref historique participatif 43 2.2.1 De la démocratie représentative à la démocratie participative 43 2.2.2 Les contestations à l'origine de la participation 44 2.2.3 L'institutionnalisation de la participation 45 i 2.2.4 La popularisation de la participation 46 2.2.5 La professionnalisation de la participation 47 2.2.6 L'évolution du métier de concepteur 48 2.2.7 La participation numérique 49 2.3 2.3.1 Quelques définitions de la participation 52 2.3.2 Une variété d'approches participatives 53 2.4 Profils et savoirs citoyens 57 2.4.1 Tous citoyens, mais encore? 57 2.4.2 Les typologies d'usagers, des consommateurs aux participants 58 2.4.3 Une typologie réaliste, les « usagers assemblés » 59 2.4.4 Les Smart citoyens, qui sont-ils? 61 2.4.5 Des savoirs citoyens diversifiés 62 2.5 La participation citoyenne en conception 65 2.5.1 Les approches centrées usagers 65 2.5.2 La co-conception 67 2.5.3 L'innovation ouverte et l'approche Living Lab 69 2.5.4 La conception après la conception 70 2.5.5 La conception participative 71 2.6 Principes et modèles clés de la participation citoyenne 73 2.6.1 Implication des citoyens 73 2.6.2 Collaboration entre experts et citoyens 78 2.6.3 Répartition des rôles 79 2.6.4 Flexibilité du processus 81 2.6.5 Effectivité du processus 82 2.6.6 Transparence du processus 85 2.7 3 Définitions multiples de la participation citoyenne 52 Limites et atouts de la participation citoyenne 87 2.7.1 Légitimité des citoyens à codécider ou co-concevoir 87 2.7.2 Attitude des professionnels vis-à-vis de la participation 89 2.7.3 Participation citoyenne vue comme une fin en soi 90 2.7.4 « Habitus Shock » entre les citoyens et les professionnels 91 2.7.5 Enjeux de recrutement et de sélection des participants 92 2.7.6 Ressources temporelles et budgétaires nécessaires 94 2.7.7 Ressources technologiques et participation numérique 95 QUESTIONS DE RECHERCHE 98 3.1 Une thèse en réaction à la technologisation de la participation 98 3.2 Une thèse réconciliant les points de vue experts et citoyens 99 CHAPITRE 2 – METHODOLOGIE 101 1 ii CADRE DE RECHERCHE 101 1.1 Positionnement ontologique et épistémologique 101 1.2 Positionnement théorique 104 2 METHODOLOGIE GENERALE 105 3 DIAGNOSTIC 109 3.1 3.1.1 Contexte de distribution du questionnaire 110 3.1.2 Formulation des questions 110 3.1.3 Différentes variantes du questionnaire 111 3.1.4 Traitement et analyse des données 112 3.2 Contexte de distribution 112 3.2.2 Attractivité du questionnaire 113 3.2.3 Formulation des questions 114 3.2.4 Pré-test du questionnaire et limites de la démarche 117 3.2.5 Traitement et analyse des données 118 3.2.6 Construction de personas sur base de nos résultats 119 Analyse de plateformes participatives 121 3.3.1 Présentation des plateformes étudiées 122 3.3.2 Traitement et analyse des données des plateformes de participation en ligne 124 3.3.3 Entretiens avec différentes parties prenantes 125 EXPLORATION 126 4.1 Entretiens semi-dirigés avec des experts internationaux 126 4.1.1 Sélection des cas d'étude 127 4.1.2 Cas d'études sélectionnés et personnes interrogées 131 4.1.3 Construction d'un guide d'entretien 132 4.1. 4 Traitement et analyse des données 134 4.1.5 Transférabilité des résultats au territoire wallon 135 4.2 Entretiens semi-dirigés avec des experts locaux 136 4.2.1 Sélection des interviewés 136 4.2.2 Construction d'un guide d'entretien et collecte de donnée s 137 4.2.3 Traitement et analyse résultats 138 4.3 5 Questionnaire grand public 112 3.2.1 3.3 4 Questionnaire auprès d'un public sensibilisé 109 Observation in situ d'une initiative participative montréalaise 139 4.3.1 Présentation du processus participatif étudié 140 4.3.2 Collecte de données 141 4.3.3 Traitement et analyse des données 144 EXPERIENCE 145 5.1 Test d'une méthodologie participative 145 5.1.1 Terrain d'entraîne ment à l'animation 145 5. 1.2 Mise au point du « Feel Good Tool kit » 146 5.1.3 Traitement et analyse des donnée s 150 5.2 Co - organisation d'une initiative participative 150 5.2.1 Sélection des villes partenaires, des thématiques étudiées et des participants 150 5.2.2 Définition d'un protocole 152 5.2.3 Suivi de l' expérience participat ive 158 5.2.4 Traitement et analyse des données 161 CHAPITRE 3 – RESULTATS 163 1 DIAGNOSTIC 163 iii 1.1 1.1.1 Description de l'échantillon 164 1.1.2 Classement des caractéristiques de la Smart City 164 1.1.3 Caractérisation de la Smart City 167 1.1.4 Domaines de la vie quotidienne où intégrer une composante Smart 169 1.1.5 Modalités participatives préférées 170 1.1.6 Effet de sensibilisation 171 1.2 Description de l'échantillon 173 1.2.2 Perception des concepts-clés de la Smart City par les répondants 176 1.2.3 Intentions comportementales vis-à-vis de l'adoption de solutions Smart 179 1.2.4 Attitudes vis-à-vis des approches participatives 184 1.2.5 Intérêt des résultats obtenus et présentation des personas 188 Analyse comparative des plateformes « Réinventons Liège » et « Demain Mons » 195 1.3.2 Analyse de la plateforme « Liège 2025 » 202 EXPLORATION 213 Entretiens semi-dirigés avec des experts internationaux 213 2.1.1 Présentation du contexte spécifique de chaque cas 213 2.1.2 Définitions de la Smart City 223 2.1.3 Définitions et interprétations de la participation citoyenne dans la Smart City 228 2.1.4 Stratégies de sélection des participants 233 2.1.5 Profil des participants en fonction de la stratégie de sélection choisie 238 2.1.6 Bonnes pratiques de la participation citoyenne dans la Smart City 242 2.1.7 Bénéfices et défis de la participation citoyenne dans la Smart City 244 2.1.8 Schéma intégrateur de la participation citoyenne 249 2.2 Entretiens semi-dirigés avec des experts locaux 256 2.2.1 Structure de l'arbre de codage 256 2.2.2 Thématiques abordées et saturation des données 260 2.2.3 Engagement des participants 261 2.2.4 Format de la participation 263 2.2.5 Contenu de la participation 266 2.2.6 Connaissances participatives 269 2.2.7 Multiplication et dilution des rôles des (Non-)Designers 271 2.3 iv Analyse de plateformes participatives 194 1.3.1 2.1 3 Questionnaire grand public 173 1.2.1 1.3 2 Questionnaire distribué auprès d'un public sensibilisé 163 Observation in situ d'une initiative participative montréalaise 274 2.3.1 Résultats issus de notre grille d'observation 274 2.3.2 Résultats issus du journal de bord et des Focus Groups 278 2.3.3 Test des outils de suivi du processus et du ressenti des participants 288 EXPERIENCE 290 3.1 Test d'une méthodologie participative « Jeu'Prelle » 290 3.2 Co-organisation d'une initiative participative 293 3.2.1 Quelques résultats de l'initiative participative 295 3.2.2 Résultats préliminaires issus des journaux de bord 298 3.2.3 Résultats approfondis issus des Focus Groups 302 CHAPITRE 4 – DISCUSSION 322 1 RAPPEL DES PRINCIPALES TRIBUTIONS THESE 322 ATION CITOYENNE SMART 324 2.1 2.1.1 La fin de l'utopie du « Super Citoyen » 328 2.1.2 Vers un rôle de citoyen ambassadeur 330 2.1.3 « Professionnel de la participation », une nouvelle mission pour le concepteur 335 2.2 3 Un écosystème d'acteurs en nécessaire mutation 328 Des processus en nécessaire mutation 338 2.2.1 Vers des modalités participatives matures et complémentaires 338 2.2.2 Vers un modèle participatif multidimensionnel et pluriel 341 2.2.3 Les paradoxes du cadre participatif 347 RETOUR REFLEXIF VIS-A-VIS D'UNE THESE INTER DISCIP LINAIRE DEDIEE AUX PROFESSION NELS DE L'URBAIN 351 CHAPITRE 5 – CONCLUSION 353 1 RENOUVEAU DES APPROCHES PARTICIPATIVES POUR LA FABRIQUE DE LA SMART CITY 353 2 LIMITES 356 3 PERSPECTIVES 358 BIBLIOGRAPHIE 361 ANNEXES 376 v vi Table des figures FIGURE 1 – NOMBRE DU PUBLICATIONS SCIENTIFIQUES RELATIVES A LA SMART CITY RECENSEES SUR LA BASE DE DONNEES SCOPUS EN UTILISANT LA REQUETE SUIVANTE : TITLE-ABS-KEY ( "SMART CIT*" ). 14 FIGURE 2 – NOMBRE DE PUBLICATIONS SCIENTIFIQUES RELATIVES A LA DIMENSION HUMAINE DE LA SMART CITY RECENSEES SUR LA BASE DE DONNEES SCOPUS EN COMPARANT PLUSIEURS REQUETES. 15 FIGURE 3 – LES TROIS COMPOSANTES DE LA SMART CITY ET LES TERMINOLOGIES ASSOCIEES A CHAQUE COMPOSANTE ; SCHEMA ADAPTE DE NAM ET PARDO (2011, P. 286). 17 FIGURE 4 – SONGDO CENTRAL PARK. 25 FIGURE 5 – SONGDO CONVENSIA. 25 FIGURES 6 ET 7 – EXEMPLES DE REPRESENTATIONS VISUELLES DE LA SMART CITY. 26 FIGURE 8 – NOMBRE DE PUBLICATIONS SCIENTIFIQUES RECENSEES SUR LA BASE DE DONNEES SCOPUS RELATIVES AUX DIMENSIONS PARTICIPATIVE ET TECHNOLOGIQUE DE LA S MART CITY EN COMPARANT PLUSIEURS REQUETES. 28 FIGURE 9 – TROIS PRINCIPAUX MODELES DE LA SMART CITY ET DES SMART CITOYENS (SCHELINGS, 2021). 29 FIGURE 10 – QUATRE PRINCIPAUX APPORTS DE LA PARTICIPATION CITOYENNE A L'ERE DES SMART CITIES D'APRES SCHELINGS (2018, P. 19). 41 FIGURE 11 – ÉCHELLE DE L'INVESTISSEMENT DES PARTICIPANTS : SANS, SUR, POUR, AVEC OU PAR LES CITOYENS (SCHELINGS, 2021). 55 FIGURE 12 – DIFFUSION DES INNOVATIONS ET CATEGORISATION DES USAGERS LES ADOPTANT ; SCHEMA ADAPTE DE ROGERS (1983 [1962], P. 247). 58 FIGURE 13 – L'ECLIPSE DE L'OBJET EN CONCEPTION SELON FINDELI & BO USB ACI (2005, P. 44). 65 FIGURE 14 – CARTOGRAPHIE DES APPROCHES DE SOLLICITATION ET D'IMPLICATION DES USAGERS DANS LE DOMAINE DE LA CONCEPTION SELON SANDERS (2008, P. 3), ET AJOUT DE TROIS APPROCHES PARTICIPATIVES AU PAYSAGE DE LA CONCEPTION PARTICIPATIVE (EN BLEU). 66 FIGURE 15 – QUARTIER SOCIAL VILLA VERDE (CHILI) CONÇU PAR LE BUREAU D'ARCHITECTURE ELEMENTAL (DIRECTEUR EXECUTIF FIGURE 16 – ÉCHELLE DE LA PARTICIPATION SELON ARNSTEIN (1969, P. 217) 74 FIGURE 17 – NIVEAU D'IMPLICATION RECOMMANDE SELON LES INTERETS DES CITOYENS ET DES AUTORITES (SCHELINGS & ELSEN, 2018, P. 103). 84 FIGURE 18 – NIVEAU DE PARTICIPATION ET NOMBRE DE PERSONNES IMPLIQUEES SELON KRAVAGNA ET AL. (2013) 93 FIGURE 19 – ARTICULATION DES TROIS PHASES DE LA RECHERCHE. 106 FIGURE 20 – ARTICULATION ET AMPLEUR DES HUIT TERRAINS DE RECHERCHE. 106 FIGURE 21 – ÉCHELLE DES HUIT TERRAINS DE RECHERCHE. 107 FIGURE 22 – TERRAINS HYBRIDES (EN VERT ET EN VIOLET) REPONDANT A PLUSIEURS QUESTIONS DE RECHERCHE. 108 FIGURE 23 – VIGNETTE DE PRESENTATION DE CHAQUE TERRAIN. 109 FIGURE 24 – STRUCTURE DU QUESTIONNAIRE GRAND PUBLIC (SCHELINGS, 2021). 115 FIGURE 25 – LES SIX CARACTERISTIQUES DE GIFFINGER ET LES QUINZE DIMENSIONS DE COHEN ETUDIEES DANS CETTE RECHERCHE. 116 FIGURE 26 – NOMBRE DE PARTICIPANTS. 144 FIGURE 27 – JEU DE CARTES DES INDICATEURS DE BIEN-ETRE EN ENVIRONNEMENT URBAIN (SCHELINGS, VIGNERON & ELSEN, 2019). 147 vii FIGURE 28 – EXEMPLE DE CARTE TECHNOLOGIQUE, ICI RELATIVE AUX CAMERAS DE SURVEILLANCE (SCHELINGS, VIGNERON & ELSEN, 2019). 148 FIGURE 29 – CONTINUUM DE SATISFACTION VIS-A-VIS D'UN INDICATEUR DE BIEN-ETRE (SCHELINGS, VIGNERON & ELSEN, 2019). 149 FIGURE 30 – PROTOCOLE GENERIQUE DE L 'INITIATIVE PARTICIPA TIVE (SCHE LING S, 2021). 153 FIGURE 31 – PROTOCOLE PARTICIPATIF ARLONAIS (SCHELINGS, 2021). 155 FIGURE 32 – PROTOCOLE PARTICIPATIF AUBANGEOIS (SCHELINGS, 2021). 156 FIGURE 33 – PROTOCOLE PARTICIPATIF CAROLO (SCHELINGS, 2021). 156 FIGURE 34 – PROTOCOLE PARTICIPATIF LIEGE OIS ( SCHELING S, 2021) 156 FIGURE 35 – MEMO DU DEROULEMENT DES ATELIERS LIEGEOIS AVEC LEUR DATE , UNE PHOTO ILLUSTRATIVE ET LE NIVEAU DE SATISFACTION MOYEN ACCORDE PAR LES PARTICIPANTS ( SCHELINGS, 2021). 162 FIGURE 36 – GENRE. 164 FIGURE 37 – ÂGE. 164 FIGURE 38 – PROFESSION. 164 FIGURE 39 – CLASSEMENT DES SIX CARACTERISTIQUES DE LA SMART CITY PAR ORDRE D'IMPORTANCE SELON LES REPONDANTS ( LA POSITION 1 E TANT LA PLUS IMPORTANTE ET LA POSITION 6 LA MO INS IMPORT ANTE). 165 FIGURE 40 – CLASSEMENT DE LA CARACTERISTIQUE « CITOYENS » EN FONCTION DE L'AGE DES REPONDANTS 165 FIGURE 41 – CLASSEMENT DE LA CARACTERISTIQUE « ECONOMIE » EN FONCTION DE L'AGE DES REPONDANTS. 166 FIGURE 42 – CLASSEMENT DE LA CARACTERISTIQUE « ECONOMIE » EN FONCTION DU AINE PROFESSIONNEL 167 FIGURE 43 – CARACTERISATION DE LA SMART CITY SUR BASE DE CINQ DUOS DE QUALIFICATIFS OPPOSES. 168 FIGURE 44 – INFLUENCE DU DOMAINE PROFESSIONNEL SUR LA CARACTERISATION « ACCUEILLANTE/MENAÇANTE ». 168 FIGURE 45 – INFLUENCE DU DOMAINE PROFESSIONNEL SUR LA CARACTERISATION « DURABLE/EPHEMERE » 169 FIGURE 46 – DOMAINES DE LA VIE QUOTIDIENNE OU LES PARTICIPANTS SONT PRETS A INTEGRER UNE COMPOSANTE SMART. 169 FIGURE 47 – DOMAINES OU ILS REFUSENT D'INTEGRER UNE COMPOSANTE SMART 169 FIGURE 48 – ACTIV ITES PARTICIPATIVES AUXQUELLES LES REPONDANTS SERAIENT SUSCEPTIBLES OU NON DE PRENDRE PART. 170 FIGURE 49 – ÂGE. 173 FIGURE 50 – GENRE. 173 FIGURE 51 – TYPE D'HABITAT. 173 FIGURE 52 – LANGUE. 174 FIGURE 53 – STATUT PROFESSIONNEL. 174 FIGURE 54 – DOMAINE PROFESSIONNEL. 174 FIGURE 55 – NIVE AU DE D IPL OME . 175 FIGURE 56 – CLASSEMENT PAR ORDRE D'IMPORTANCE DES SIX CARACTERISTIQUES DE LA SMART CITY DE GIFFINGER (N=2037) 176 FIGURE 57 – CLASSEMENT PAR ORDRE D'IMPORTANCE DE DOUZE DIMENSIONS DE LA SMART CITY SELON LES ADULTES (N=979). 177 FIGURE 58 – INFLUENCE DE L'AGE SUR LE CLASSEMENT DES DIMENSIONS ENVIRONNEMENTALES. 178 FIGURE 59 – RESUME DU COMPORTEMENT PROJETE DES REPONDANTS VIS-A-VIS DE DOUZE DIMENSIONS DE LA SMART CITY. 180 FIGURE 60 – COMPORTEMENT PROJETE DES REPOND ANTS AU SUJET DE LA GESTION DE L'ENERGIE (N=2176). 180 FIGURE 61 – COM PORTEMENT PROJETE DES REP ONDANTS AU SUJET DU PARTAGE DE LEURS DONNEES (N=2023 ). 181 FIGURE 62 – INFLUENCE DE L'AGE SUR LE SCORE « PRUDENT ». 183 FIGURE 63 – INFLUENCE DE L'AGE SUR LE SCORE « MODERE ». 183 FIGURE 64 – INFLUENCE DE L'AGE SUR LE SCORE « TECHNO » 183 FIGURE 65 – MODALITES PARTICIPATIVES PREFEREES DES ADULTES ( N=1280) 184 viii FIGURE 66 – INFLUENCE DE L'AGE SUR LA PREFERENCE POUR UN TEST DE TECHNOLOGIE. 185 FIGURE 67 – INFLUENCE DE L'AGE SUR LA PREFERENCE POUR UN QUESTIONNAIRE EN LIGNE. 185 FIGURE 68 – MOTIVATIONS PRINCIPALES QUI POUSSENT LES ADULTES A PARTICIPER (N=1247). 186 FIGURE 69 – FREINS PRINCIPAUX QUI RETIENNENT LES ADULTES DE PARTICIPER ( N=1043). 187 FIGURE 70 – INFLUENCE DE L'AGE SUR L'IMPORTANCE DU NON-ANONYMAT EN TANT QU'OBSTACLE A LA PARTICIPATION. 187 FIGURE 71 – INFLUENCE DE L'AGE SUR L'IMPORTANCE DU GEO-TRACKING EN TANT QU 'OBSTACLE A LA PARTICIPATION. 187 FIGURE 72 – COM PORTEMENT PROJE TE DES ENFANTS ET ADOLESCENT S EN REGARD DE LA PARTICIPATION CIT OY ENNE ( N =1122). 188 FIGURE 73 PERSON A ENFANT ( SCHELING S, 2021 ). 191 FIGURE 74 – PERSONA ADOLESCENT (SCHELINGS, 2021). 191 FIGURE 75 – PERSONA JEUNE ADULTE (SCHELINGS, 2021). 191 FIGURE 76 – PERSON A ADULTE (SCHELINGS, 2021). 192 FIGURE 77 – PERSONA SENIOR (SCHELINGS, 2021). 192 FIGURE 78 – PRESENTATION DES PLATEFORMES D'E-PARTICIPATION LIEGEOISES, EN TERMES D'ECOSYSTEME D'ACTEURS ET DE MECANISMES PARTICIPATIFS (CODECISION, CO-CONCEPTION ET COPRODUCTION). 194 FIGURE 79 – COMPARAISON DES THEMATIQUES SELECTIONNEES PAR LES CITOYENS OU PAR LA VILLE (LAGO ET AL., 2019). 196 FIGURE 80 – STRUCTURE EN ARBRE DES IDEES SOUMISES DANS LA THEMATIQUE « ESPACES VERTS, ESPACES COLLECTIFS, ESPACES APAISES » (LAGO ET AL., 2019). 201 FIGURE 81 – SYNTHESE DE L'ARTICULATION DES DIFFERENTS ELEMENTS DE CONTENU DU PST (HENROTTE, 2020) 205 FIGURE 82 – LES TROIS DIMENSIONS DE LA PARTICIPATION CITOYENNE A L'ERE DES SMART CITIES (SCHELINGS, 2021). 274 FIGURE 91 – NIVEAU DE MOTIVATION DES PARTICIPANTS. 281 FIGURE 92 – COMPREHENSION DES OBJECTIFS DU JOUR. 282 FIGURE 93 – CONTRIBUTION AU PROCESSUS. 283 FIGURE 94 – POUVOIR DE DECISION DES PARTICIPANTS. 283 FIGURE 95 – CONFIANCE QUANT A L'ABOUTISSEMENT DU PROCES SUS . 284 FIGURE 96 – CONFIANCE ENVERS LES ORGANISA TEUR S . 285 FIGURE 97 – NIVEAU DE SATISFACTION DES PARTICIPANTS. 286 FIGURE 98 – BENEFICES PERÇUS PAR LES REPONDANTS AU COURS DE LEUR PARTICIPATION. 286 FIGURE 99 – ATELIER PARTICIPATIF ORGANISE A JUPRELLE. 290 FIGURE 100 – CINQ NOUVELLES CARTES DU BIEN-ETRE EN ENVIRONNEMENT URBAIN (SCHELINGS, VIGNERON & ELSEN, 2019). 291 FIGURE 101 – PYRAMIDE DU BIEN-ETRE (SCHELINGS, VIGNERON & ELSEN, 2019). 292 ix FIGURE 102 – PRESENTATION DU PROCESSUS ARLONAIS, EN TERMES D'ECOSYSTEME D'ACTEURS ET DE MECANISMES PARTICIPATIFS (CODECISION, CO-CONCEPTION ET COPRODUCTION). MA = MAISON DES ASSOCIA TIONS . 293 FIGURE 103 – PRESENT ATION DU PROCES SUS AUB ANGE OIS . 294 FIGURE 104 – PRESENTATION DU PROCESSUS CAROLO. 294 FIGURE 105 – PRESENTATION DU PROCESSUS LIEGEOIS. 294 FIGURE 106 – VISITE DE TR OIS PARTICIPANTS LIEGE OIS AU HACKATHON CITIZENS OF WALL ONIA. 297 FIGURE 107 – NIVEAUX DE SATISFACTION ET DE MOTIVATION MOYENS DANS CHAQUE VILLE. 311 FIGURE 108 – NIVEAU DE CONFIANCE DES PARTICIPANTS QUANT A L'ABOUTISSEMENT DU PROJET ET NIVEAU DE CONCRETISATION REELLEMENT ATTEINT A L'ISSUE DU PROCESSUS DANS CHAQUE VILLE. 317 FIGURE 109 – SCHEMA D'ORGANISATION DES ACTEURS PROPOSE PAR ZETLAOUI-LEGER ET MEUNIER (2016, P. 33) AUQUEL NOUS AVONS AJOUTE LES PROFESSIONNELS DE PARTICIPATION. 336 FIGURE 110 – REPRESENTATION SCHEMATIQUE QUALITATIVE DE L'EVOLUTION DES NIVEAUX DE SATISFACTION ET D'EXIGENCE D'UNE VILLE EN FONCTION DE SON NIVEAU DE MATURITE PARTICIPATIVE. 339 FIGURE 111 – CUBE DEMOCRATIQUE SELON FUNG (2006). 342 FIGURE 112 – TROIS DECLINAISON DU MODE DE COMMUNICATION ET DE DECISION AU SENS DE FUNG (SCHELINGS, 2021). 343 FIGURE 113 – RADAR DE LA PARTICIPATION CITOYENNE A L'ERE DES SMART CITIES, ET ILLUSTRATION DE L'ETENDUE 346 FIGURE 114 – CARACTERISATION TEMPORELLE DE PLUSIEURS INITIATIVES PARTICIPATIVES ETUDIEES A TRAVERS CETTE THESE (SCHELINGS, 2021). 349 Table des tableaux TABLEAU 1 – SOURCES ET FORMES D'INTELLIGENCE DE LA SMART CITY. 19 TABLEAU 2 – SPECTRE DE LA PARTICIPATION CITOYENNE DE L' IAP2 (2018) 76 TABLEAU 3 – NUMERISATION DE L'ECHELLE DE LA PARTICIPATION PAR DOUAY (2016, P. 154). 76 TABLEAU 4 – QUATRE ELEMENTS DE LA MATRICE SWOT. 87 TABLEAU 5 – MATRICE SWOT DE LA PARTICIPATION CITOYENNE (SCHELINGS, 2021). LES CASES GRISEES RENVOIENT VERS LES SECTIONS PRECEDENTES ET NE SERONT PAS APPROFONDIES ICI. 88 TABLEAU 6 – ÉVOLUTION D'ENJEUX RECURRENTS DE LA PARTICIPATION CITOYENNE VERS DE NOUVEAUX ENJEUX SPECIFIQUES, LIMITANT LES PROCESSUS PARTICIPATIFS A L'ERE SMART (SCHELINGS, 2018) 98 TABLEAU 7 – CARACTERISATION SYNTHETIQUE DE TROIS PARADIGMES : POSITIVISME, PRAGMATISME ET CONSTRUCTIVISME ; BASEE SUR GUBA ET LINCOLN (1994), NGUYEN-DUY ET LUCKERHOFF (2007), CRESWELL ET CRESWELL (2017) ET PATEL (2015). 102 TABLEAU 8 – CORRESPONDANCE ENTRE LES QUESTIONS DE RECHERCHE ET LES TERRAINS DE RECHERCHE. 108 TABLEAU 9 – DESCRIPTION DES EVENEMENTS LORS DESQUELS LE QUESTIONNAIRE A ETE DISTRIBUE. 110 TABLEAU 10 – TESTS NON-PARAMETRIQUES EMPLOYES EN FONCTION DU TYPE DE VARIABLES. 119 TABLEAU 11 – COMPARAISON DES PLATEFORMES « REINVENTONS LIEGE » ET « DEMAIN MONS » (LAGO ET AL., 2019). 123 TABLEAU 12 – INDICATEURS DE CODAGE DES TROIS BASES DE DONNEES ISSUES DES PLATEFORMES D'E-PARTICIPATION. 125 TABLEAU 13 – LES DIX SMART CITIES EN EUROPE ET EN AMERIQUE DU NORD AYANT OBTENU LES PLUS HAUTS SCORES SELON LA CARACTERISTIQUE « CITOYENS » DU CLASSEMENT DE (COHEN, 2013). 130 TABLEAU 14 – PROFIL ET NOMBRE DE PERSONNES INTERROGEES POUR CHACUNE DES SIX VILLES ETUDIEES. 131 TABLEAU 15 – THEMATIQUES ABORDEES DANS LE GUIDE D'ENTRETIEN EN FONCTION DU TYPE D'ACTEUR INTERROGE, CERTAINES QUESTIONS ETANT COMMUNES A DIFFERENTS PROFILS. 133 TABLEAU 16 – STRUCTURE DU GUIDE D'ENTRETIEN (SCHELINGS, CALIXTE & ELSEN, 2020). 137 TABLEAU 17 DEROULEMENT TEMPOREL DU BUDGET PARTICIPATIF DE MERCIER OUEST. 140 TABLEAU 18 – STRUCTURE DU JOURNAL DE BORD. 158 TABLEAU 19 – FEUILLE DE ROUTE DES FOCUS GROUPS. 160 TABLEAU 20 – NOMBRE DE REPONDANTS ET TAUX DE REPONSE (PAR EVENEMENT ET GLOBAUX). 163 TABLEAU 21 – ÂGE, GENRE ET TYPE D'HABITAT DE L'ECHANTILLON GLOBAL. 173 TABLEAU 22 – STATUT PROFESSIONNEL, DOMAINE PROFESSIONNEL ET NIVEAU DE DIPLOME DE L'ECHANTILLON ADULTE. 175 TABLEAU 23 – TABLE DE CONVERSION UTILISEE POUR CALCULER LE CLASSEMENT GENERAL DE CHAQUE CARACTERISTIQUE. 176 TABLEAU 24 – COMPARAISON DES CARACTERISTIQUES PRIORITAIRES DU GRAND PUBLIC ET DU PUBLIC SENSIBILISE. 177 TABLEAU 25 – RESULTATS SIGNIFICATIFS DES TESTS NON -PARA METRI QUES EFFECTUES ENTRE L'AGE DES A DULTES ET LE RANG DES DEUX DIMENSIONS ENVIRONNEMENTALES. 178 TABLEAU 26 – RESULTATS SIGNIFICATIFS DES TESTS NON-PARAMETRIQUES EFFECTUES ENTRE LE COMPORTEMENT PROJETE AU SUJET DU PARTAGE DES DONNEES ET DEUX VARIABLES DEMOGRAPHIQUES (L'AGE ET LE NIVEAU DE DIPLOME DES ADULTES). 182 TABLEAU 27 – RESULTATS SIGNIFICATIFS DES TESTS NON - PARAMETRIQUES EFFECTUES ENTRE L 'AGE DES REPONDANTS ET LES TROIS SCORES COMPORTEMENTAUX . 183 TABLE AU 28 – RESULT ATS SIGNIFICATIF S DES TEST S NON-PARAMETRIQUES EFFECTUES ENTRE L'AGE DES ADULTES ET LE RANG DE DEUX MODA LITES PARTICIPATIVES (LE QUESTIONNAIRE EN LIGNE ET LE TEST DE TECHNOLOGIE). 185 TABLEAU 29 – RESULTATS SIGNIFICATIFS DES TESTS NON-PARAMETRIQUES EFFECTUES ENTRE L'AGE DES ADULTES ET LE RANG DE DEUX OBSTACLES A LA PARTICIPATION (LE NON-ANONYMAT ET LE GEO-TRACKING). 187 xi TABLEAU 30 – CLASSEMENTS DES SIX CARACTERISTIQUES DE GIFFINGER D'APRES LES POUVOIRS PUBLICS ET LES CITOYENS. 189 TABLEAU 31 – ÉVOLUTION DES THEMATIQUES A TRAVERS LES TROIS PHASES DE « REINVENTONS LIEGE » (L AGO ET AL., 2019 ). 197 TABLEAU 32 – COMPARAISON DU NOMBRE DE VOTES NETS ET D'IDEES PAR THEMATIQUE POUR « REINVENTONS LIEGE » (L AGO ET AL., 2019). 199 TABLEAU 33 – EXEMPLE D'AGREGATION DE PROPOSITIONS DANS UNE GRAPPE THEMATIQUE, A SAVOIR LES « FAÇADES ». 202 TABLEAU 34 – EXEMPLES D'IDEES CARACTERISEES PAR L'INDICATEUR « PROBLEME/SOLUTION ». 204 TABLEAU 35 – EXEMPLES D'IDEES CARACTERISEES PAR L'INDICATEUR « ECHELLE ». 204 TABLEAU 36 – TOP 10 DES NOMBRES D'OCCURRENCES ET DE VOTES NETS POUR LES THEMATIQUES INITIALES ET RETRAVAILLEES (HENROTTE, 2020). 206 TABLEAU 37 – EXEMPLES DE PROJETS RECATEGORISES DANS LES NOUVELLES THEMATIQUES. 207 TABLEAU 38 – REGROUPEMENT DES PROJETS SIMILAIRES PAR MOTS-CLES ET NOMBRE DE VOTES NETS CUMULES ASSOCIES (HENR , 2020). 207 TABLEAU 39 – NOMBRE D'IDEES SOUMISES ET DE VOTES OBTENUS PAR LES PARTICIPANTS LES PLUS ACTIFS (P1–10) ET PAR DES PARTICIPANTS MOINS ACTIFS CUMULANT NEANMOINS UN NOMBRE ELEVE DE VOTES (P11–16) (HENROTTE, 2020). 208 TABLEAU 40 – PROBLEMES RENCONTRES PAR LES PARTICIPANTS DES FOCUS GROUPS VIS-A-VIS DE LA PLATEFORME NUMERIQUE. 210 TABLEAU 41 – PROBLEMES RENCONTRES PAR LES PARTICIPANTS DES FOCUS GROUPS VIS-A-VIS DU TRAITEMENT DES DONNEES ET DE LA COMMUNICATION DES RESULTATS. 211 TABLEAU 42 – APERÇU DU PROFIL DES INTERVIEWES ET DES STRUCTURES DANS LESQUELLES ILS TRAVAILLENT. 215 TABLEAU 43 – BREF PORTRAIT HISTORIQUE/GEOGRAPHIQUE DE NOS SIX CAS D'ETUDES 216 TABLEAU 44 – CARACTERISTIQUES DU CONTEXTE SMART DE CHAQUE VILLE ETUDIEE ; LES CASES VIDES NE SIGNIFI ENT PAS QUE LA CARACTERISTIQUE NE SE RETROUVE PAS DANS LA VILLE , MAIS SEULEMENT QUE LES INTERVIEWES N'ONT PAS AB ORDE CET ELEMENT L ORS DE L'ENTRETIEN . 217 TABLEAU 45 – CARACTERISTIQUES DU CONTEXTE PARTICIPA TIF DE CHAQUE VILLE ET UDI EE. xii 323 TABLEAU 60 – LIGNE DU TEMPS SYNTHETIQUE DE LA PARTICIPATION CITOYENNE DEPUIS SES ORIGINES JUSQU'A NOTRE ERE (SCHELINGS 2021). 324 TABLEAU 61 – ÉVOLUTIONS DE LA PARTICIPATION CITOYENNE A TRAVERS LES VAGUES PARTICIPATIVES ET A L'ERE DES SMART CITIES (SCHELINGS, 2021). 326 TABLEAU 62 – MOTEURS ET FREINS AU DEVELOPPEMENT D'UNE POSTURE D'AMBASSADEUR CITOYEN. 331 xiii Publications associées à la thèse Articles de journaux Henrotte, P., Schelings, C. & Elsen, C. (soumis). Mechanisms of e-Participation and Data Processing by the City: Impact on Citizens' Contributions. Case Study: the "Liège 2025" action. Town Planning Review. Schelings, C., Calixte, X. & Elsen, C. (2020). Advocating for Participation in Design: Designers' and Non-Designers' New Roles and Responsibilities. International Journal of Design Management and Professional Practice, 14 (3), 9–27. Schelings, C. & Elsen, C. (2019b). "Smart" Participation : Confronting Theoretical and Operational Perspectives. International Journal on Advances in Intelligent Systems, 12 (1–2), 1–13. Chapitre de livre Schelings, C. (2018). La participation citoyenne. In Nguyen, C., Bleus, H., Van Bockhaven, J., Basile, C. & Crutzen, N. (Eds.), Le guide pratique de la Smart City - Tome 2 - Comment rendre le citoyen acteur de son territoire?, 18–21. Liège : Smart City Institute, HEC, Université de Liège. Articles de conférences Brossolet, C., Schelings, C. & Elsen, C. (2021). Making Smart Meters Acceptable: An End-User Standpoint. In Cities in a changing world: questions of culture, climate and design. New York, États-Unis d'Amérique. Lago, N., Durieux, M., Pouleur, J.-A., Scoubeau, C., Elsen, C. & Schelings, C. (2019). Citizen Participation Through Digital Platforms: The Challenging Question of Data Processing for Cities. In IARIA (Ed.), Proceedings of the Eighth International Conference on Smart Cities, Systems, Devices and Technologies, 19–25. Nice, France. Schelings, C. & Elsen, C. (2018a). La participation citoyenne à l'heure des « Smart Cities ». In Zreik, K., Becue, V. & Gallas, M.-A. (Eds.), Colloque 01.Design 11 - Concevoir à l'ère PostNumérique, 97–107. Mons, Belgique. Schelings, C. & Elsen, C. (2018b). The "Bottom-up Smart City": Filling the Gap Between Theory and Practice. In SMART 2018 : The Seventh International Conference on Smart Cities, Systems, Devices and Technologies, 54–60. Barcelona, Spain. Schelings, C. & Elsen, C. (2017). Smart City Concepts: From Perception to Acceptability. In Proceedings of the 21th Conference of the Environmental and Sustainability Management Accounting Network (EMAN), 3 p. Liège, Belgique. Keynote de conférence Henrotte, P., Schelings, C. & Elsen, C. (2020). Keynote: La e-participation en soutien d'une stratégie pour des e-services géographiques publics flexibles. In FLEXPUB General Assembly: États Généraux - BELSPO BRAIN-be FLEXPUB Research Project. Namur, Belgique. Conférences sur abstract Schelings, C. (2020). Conférence Liège Créative : Comment concevoir des Smart Cities centrées sur les besoins des citoyens? Liège, Belgique. Schelings, C. (2017). Smart Users in the Smart City. In Digital Construction Week: Innovation in the built environment. London, United Kingdom. Rapports de recherche Schelings, C., Vigneron, L. & Elsen, C. (2019). Feel Good Toolkit: Un protocole et des supports d'animation pour l'objectivation du bien-être en territoire intelligent. Retrieved March 15, 2021, from https://orbi.uliege.be/handle/2268/252471 Schelings, C. & Elsen, C. (2019a). Rapport de recherche : résultats statistiques issus des données récoltées via un questionnaire lors de l'exposition « J'aurai 20 ans en 2030 ». xv xvi Préambule Lorsque j'ai entrepris mes études d'ingénieure architecte, j'étais animée par la volonté de concevoir des solutions architecturales et urbaines réalistes, cohérentes et efficaces. Je voulais en apprendre davantage sur les règles qui régissent le milieu de la construction et rationalisent la planification urbaine. Un peu naïvement, j'étais convaincue que certains principes directeurs bien appliqués permettaient forcément d'atteindre un résultat satisfaisant tant au niveau de la technique, de l'esthétique que de l'acceptabilité sociale. Petit à petit, cette dernière composante, l'Humain, m'est apparue comme de plus en plus cruciale. À quoi bon concevoir quelque chose de théoriquement parfait si les usagers ne s'y sentent pas bien et n'en veulent pas? À quoi bon négliger leurs besoins et souhaits sous prétexte qu'ils ne sont pas des professionnels et ne connaissent pas toutes les contraintes qui définissent le projet? Ces questions m'ont poussée à réfléchir à mon rôle de conceptrice et ont attisé mon intérêt pour les approches centrées usagers et participatives. Ces mêmes questionnements et intérêts m'ont amenée à étudier le phénomène de la Smart City et en particulier le rôle que peuvent y jouer les citoyens. Cette thèse s'intitule « Renouveau des approches participatives pour la fabrique de la Smart City » et il m'a été demandé un nombre incalculable de fois pourquoi un ingénieur-architecte s'attaquait à un tel sujet. Je conviens que cette thématique peut surprendre dans un monde académique encore divisé en silos, même s'il cherche à s'ouvrir vers plus de multidisciplinarité. Je profite donc de ce préambule pour exposer les différentes raisons pour lesquelles je m'intéresse aux approches participatives dans le contexte de la Smart City. Pour commencer, cette thèse étudie la ville et en particulier son évolution possible vers un nouveau modèle Smart. En tant qu'ingénieure architecte, l'émergence de nouvelles trajectoires urbaines est évidemment un sujet d'intérêt crucial pour comprendre le contexte dans lequel nous concevons de nouveaux espaces et bâtiments. La Smart City est en outre un système complexe qui intéresse quasiment toutes les disciplines et peut être étudié à travers le prisme de plusieurs expertises (sociologie, économie, philosophie, sciences politiques, informatique, urbanisme, ingénierie, architecture, etc.). Il s'agit donc d'un champ de recherche transdisciplinaire par nature, aucun expert ne disposant d'une vision suffisamment globale pour le revendiquer. De la même manière, la participation citoyenne n'est plus aujourd'hui exclusivement attachée aux processus de décision politique, mais occupe une place grandissante dans les processus de conception et d'innovation. Les concepteurs d'espaces et de solutions urbains sont donc de plus en plus souvent amenés à collaborer avec leurs usagers et à inclure leurs perspectives dans leur conception. Le temps de l'architecte créateur tout puissant n'existe plus et l'intérêt croissant pour les processus démocratiques et collaboratifs l'invite à se réinventer et à faire évoluer ses pratiques. Ce tournant participatif ouvre d'ailleurs de nouvelles perspectives professionnelles pour les concepteurs (architectes, ingénieurs architectes, designers, etc.), dont certains pourraient devenir des facilitateurs de processus participatifs par exemple. Nous verrons dans la suite de cette thèse que la participation citoyenne devient également un processus incontournable de la dynamique Smart. Or, les aspects citoyens et participatifs 1 sont de loin les moins étudiés actuellement dans la littérature Smart City. Partant du principe qu'un ingénieur est supposé résoudre des problèmes, il nous est apparu essentiel de nous concentrer sur cet aspect délaissé et néanmoins essentiel au bon fonctionnement de la Smart City. Le fait que le problème identifié soit plus traditionnellement étudié par des chercheurs en sciences humaines et sociales n'annule en rien notre propre légitimité à nous en emparer. Bien conscients de notre propre champ de compétences, nous développons donc une approche teintée de notre double posture d'ingénieur architecte. D'une part, l'une des spécificités de l'ingénieur est sa capacité à modéliser des phénomènes complexes et à simuler des situations dans différents domaines. La ville est évidemment un vaste terrain d'expérimentation que l'ingéni ne se limite pas à observer, mais dont il analyse les schémas récurrents pour en tirer des tendances. Nous ne parlons pas ici uniquement de modèles mathématiques, mais aussi de la construction de schémas compréhensifs et de profils synthétiques par exemple. Par ailleurs, la recherche en ingénierie revêt un caractère très opérationnel et s'attèle aussi à fournir des solutions, méthodes et outils concrets aux acteurs de terrain. D'autre part, l'ingénieur architecte se distingue des autres filières d'ingénierie par son rôle de « concepteur ». Par rapport à ses pairs, sa formation architecturale lui confère naturellement une plus grande sensibilité esthétique, créative et empathique envers les usagers. Nous entendons ici par « professionnels de l'urbain », aussi désignés « concepteurs » ou « concepteurs de l'urbain » dans la suite de la thèse, tous les acteurs professionnels impliqués dans la conception, la formalisation et la réalisation de projets urbains (espaces publics, bâtiments, réseaux, mobilier urbain) qu'il s'agisse d'ingénieurs, d'architectes, d'urbanistes, de designers ou encore de paysagistes par exemple. Introduction Le sujet de cette thèse est le « Renouveau des approches participatives pour la fabrique de la Smart City ». À travers l'explication du choix des principaux concepts mobilisés dans le titre (la Smart City, la fabrique urbaine et la participation citoyenne), cette introduction s'intéresse tout d'abord à la problématique de la thèse et s'attache à expliquer pourquoi ce sujet mérite toute notre attention. Nous poursuivons avec une note de positionnement précisant la posture adoptée par l'ingénieure architecte vis-à-vis d'un sujet de recherche intrinsèquement interdisciplinaire. Nous présentons enfin le plan de la thèse à travers une description courte des chapitres suivants. 1 Pourquoi la Smart City ? À travers cette thèse, nous nous intéressons particulièrement à l'évolution des environnements urbains car les villes font actuellement face à de nombreux défis démographiques, économiques, environnementaux et sociétaux (Crutzen & Zwetkoff, 2018). En effet, nos territoires se caractérisent par une urbanisation croissante qui s'accompagne d'une hausse rapide de la population urbaine (J. Lee & Lee, 2014). Un cap historique a été franchi en 2008 ; en effet, depuis lors, plus de la moitié de la population mondiale vit en ville (Angelidou, 2015). Cette croissance démographique est d'ailleurs vouée à s'accélérer encore et l'on prédit déjà que la proportion de citadins atteindra près de 70% de la population mondiale d'ici 2050 (Greco & Bencardino, 2014). Notons que la population urbaine représente déjà 80% de la population européenne (Andone, Holotescu, & Grosseck, 2015). Selon Martinez-Balleste, Perez-Martinez & Solanas (2013), les villes sont donc plus attractives que les campagnes, notamment parce qu'elles sont mieux desservies dans une logique d'économie d'échelle. Les centres-villes accueillent chaque jour de nouveaux habitants qui souhaitent profiter d'une meilleure accessibilité aux biens et aux services et bénéficier de conditions de vie plus confortables (Greco & Bencardino, 2014; Tompson, 2017). On assiste donc à un exode rural qui s'accompagne toujours d'une tendance à l'étalement urbain provoquée initialement par la démocratisation de l'automobile et du téléphone (de Lange & de Waal, 2013; Walters, 2011). Une telle concentration d'habitants dans les villes crée de nouveaux problèmes de planification urbaine (Chourabi et al., 2012). Par ailleurs, l'urbanisation combinée à la mondialisation obligent toutes les villes à se montrer de plus en plus compétitives et innovantes (Schuurman, Baccarne, De Marez & Mechant, 2012). Elles concourent pour attirer de nouveaux habitants, des travailleurs talentueux, des investisseurs, des touristes, etc. (Angelidou, 2015). Ces objectifs économiques doivent en outre s'aligner avec une stratégie de développement durable (Paskaleva, 2011). En effet, alors que les villes accélèrent et polarisent la croissance socioéconomique et le développement technologique, elles consomment également de nombreuses ressources et produisent une grande quantité de déchets (Ben Letaifa, 2015; Hollands, 2008). Les villes sont également très polluantes et représentent à elles seules environ 75% des consommations d'énergie et des émissions de gaz à effet de serre (Guelzim, Obaidat, & Sadoun, 2016). La majorité des émissions de CO2 globales proviennent d'ailleurs du trafic automobile intensif au sein des villes (Perboli, De Marco, Perfetti & Marone, 2014). Pourquoi la Smart City? 3 L'urbanisation est donc en grande partie tenue responsable des changements climatiques et de la raréfaction des ressources naturelles (Angelidou, 2015; Brown & Vergragt, 2008). Cette urgence environnementale induit également une prise de conscience collective quant à l'importance d'adopter des modes de vie et de consommation plus durables, dans une logique de transition écologique (Brown & Vergragt, 2008; Gooch, Wolff, Kortuem & Brown, 2015). En outre, les villes deviennent le théâtre d'enjeux sociétaux majeurs comme la gentrification de certains quartiers urbains, l'augmentation du coût de la vie, le renforcement des inégalités sociales, le vieillissement de la population, la dégradation des conditions sanitaires ou encore le sentiment d'insécurité (Barcenilla & Bastien, 2010; Brown & Vergragt, 2008; de Lange & de Waal, 2013; Nam & Pardo, 2011). Cette thèse de doctorat s'inscrit donc dans un contexte alarmant, entre les multiples marches pour le climat, les manifestations des gilets jaunes dès 2018 et la pandémie mondiale de la Covid-19. Puisque tous les problèmes décrits ci-dessus sont exacerbés en ville, il semble logique de les traiter à la racine et de faire des zones urbaines des terrains d'expérimentation privilégiés pour tester de nouvelles solutions (Greco & Bencardino, 2014). Les enjeux auxquels les villes sont confrontées induisent donc la recherche d'un nouvel idéal urbain, plus efficace et plus durable (Privacy International, 2017). À travers les âges, les villes ont souvent été rêvées et imaginées au futur, donnant lieu à de nombreuses utopies et dystopies (Damon, 2016). Il existe de nombreux imaginaires urbains qui tentent de répondre aux enjeux urbains contemporains, mais l'un des plus populaires actuellement est la Smart City (Tompson, 2017; Van olo, 2016). Comme la plupart des idéaux urbains, récents comme anciens, la Smart City s'inspire largement des dernières avancées technologiques et découvertes scientifiques du 21e siècle (Angelidou, 2015). Par rapport à certaines utopies futuristes véhiculées par le passé, la Smart City semble cette fois atteignable d'un point de vue technique (Bulu, 2014). En particulier, les technologies de l'information et de la communication, mais aussi l'Internet des objets, l'apprentissage machine et l'intelligence artificielle, sont aujourd'hui des moyens courants de soutenir les activités humaines (Dubois & Bobillier-Chaumon, 2009; Tompson, 2017). Cette révolution numérique constitue donc le terreau idéal pour promouvoir la Smart City comme « la » stratégie de développement qui solutionnerait les enjeux urbains actuels (Dameri, 2013). 4 Introduction L'intérêt pour la Smart City s'amplifie et se concrétise par des initiatives de plus en plus nombreuses et des investissements de plus en plus importants pour rendre les villes plus Smart (Monfaredzadeh & Krueger, 2015). Les villes semblent se diriger inexorablement vers ce nouveau modèle urbain qu'il nous semble donc intéressant d'étudier dans le cadre de cette thèse. Par rapport à cet enthousiasme mondial vis-à-vis du modèle Smart, le territoire wallon n'est cependant pas extrêmement fertile et se heurte à des résistances à l'échelon local (Desdemoustier & Crutzen, 2015). En outre, les communes wallonnes se caractérisent par un nombre limité d'initiatives Smart, une difficulté de financement et l'adoption très récente (2018-2020) d'une stratégie Smart City (Randaxhe, Crutzen & Naisse, 2021). Néanmoins, la dynamique Smart City reste très plébiscitée actuellement en Wallonie. Depuis 2015, Digital Wallonia développe sa stratégie Smart Région qui poursuit des objectifs de durabilité, de performance et de transition numérique en Wallonie. Ce plan de développement comporte notamment un appel à projets « Territoires intelligents » visant à encourager et à financer les projets Smart initiés dans les villes et communes wallonnes. En 2019, 43 projets ont été soutenus et valorisés à hauteur d'un total de 4 millions d'euros (Rawart, 2020). Dans ce cadre, le Smart City Institute (HEC – École de Gestion de l'Université de Liège) est également devenu le référent académique de la Région wallonne en termes de développement Smart (Smart City Institute, 2020). Délaissant la vision purement technocratique de la Smart City, la dynamique wallonne ne se repose donc pas uniquement sur le déploiement de solutions technologiques, mais surtout sur la création d'un écosystème d'acteurs. Cette transition vers un odèle Smart plus humain et plus durable est d'ailleurs l'une des conditions de la survie de la Smart City. En effet, des géants comme Google ou Cisco ont annoncé récemment, respectivement en mai 2020 et janvier 2021, l'arrêt de leurs activités en lien avec la Smart City (Deniau, 2020; Terrasson, 2021). Considérées trop peu rentables, il semblerait que l'abandon de ces filiales révèlent plutôt l'essoufflement d'un modèle exclusivement technologique et la crainte d'une surveillance ubiquitaire. Cette thèse s'inscrit donc dans un contexte urbain en mutation vers un nouvel idéal Smart. 2 Pourquoi la fabrique? Dans cette thèse, nous employons le concept de fabrique urbaine. La fabrique de la ville se définit comme un « processus par lequel l'interaction entre société urbaine et ville, dans sa réalité matérielle, espaces et territoires, produit un urbain spécifique en perpétuelle transformation » (Galinié, 2000, p. 126). La ville est donc envisagée ici comme un corps en constante évolution sous l'influence des conditions socioéconomiques qui la façonnent, plutôt qu'un objet défini uniquement par sa réalité physique figée dans le temps et dans l'espace. Une ville se fabrique donc en regard de trois dimensions : spatiale, temporelle et sociale (Noizet, 2013). Cette perspective permet d'étudier des phénomènes en construction tels que la Smart City, qui doit être considérée « comme constamment 'en train de se faire' plutôt que 'toute faite' » (Tompson, 2017, p. 227). Comme nous le verrons par la suite, le concept de Smart City est encore émergent et mouvant, ses premières définitions au milieu des années 2000 laissant déjà place à de nouvelles interprétations (Chourabi et al., 2012). De même que le concept de fabrique urbaine sous-tend que « l'urbain est plus le produit d'une société que son projet » Pourquoi la fabrique? 5 (Noizet, 2013, p. 389), « une Smart City n'est pas un projet, mais le début d'un processus global de () transformation de la ville » (Greco & Bencardino, 2014, p. 583). D'un point de vue spatial, cette transformation Smart s'opère à la fois à petite et à grande échelle. D'un côté, il s'agit d'un phénomène international qui fait partie d'un agenda politique et s'implante progressivement dans toutes les villes du globe. Cette nouvelle approche née du contexte urbain rayonne même au-del à des villes et l'on parle de plus en plus souvent de « Smart territoires » ou de « Smart ruralité » (Desdemoustier, Crutzen, Cools, & Teller, 2019). D'un autre côté, les initiatives fleurissent le plus souvent à petite échelle à travers des tests de solutions sur des sites pilotes, avant d'éventuellement être étendues à plus grande échelle. En outre, les interventions peuvent aussi bien concerner les infrastructures et les réseaux matériels (hardware) que le tissu socio-culturel et la participation citoyenne (software) (Angelidou, 2014). D'un point de vue temporel, la Smart City se caractérise par des compréhensions multiples depuis ses origines jusqu'à aujourd'hui. 3 Pourquoi un focus citoyen et participatif? Au moment de commencer cette thèse de doctorat, nous ne savions pas ce qu'était la Smart City et il nous est très vite apparu que notre entourage familial, amical et même professionnel n'en avait jamais entendu parler auparavant non plus. La littérature confirme que la plupart des citoyens ne sont pas familiers avec le terme Smart City qui reste très abstrait à leurs yeux et trop éloigné de leurs vies quotidiennes (Simonofski, Asensio & Wautelet, 2019; Thomas, Wang, Mullagh & Dunn, 2016). La distance qui sépare la Smart City des citoyens qui l'habitent est en outre accrue par la nature invisible et indétectable de nombreuses technologies Smart (Thomas et al., 2016). Certes, la Smart City est en partie immatérielle, mais elle n'en est pas moins réelle et en devient même ubiquitaire (de Lange & de Waal, 2013). Introduction Le faible niveau de conscientisation des citoyens est très préoccupant si l'on considère la rapidité avec laquelle le phénomène Smart s'amplifie et s'insinue progressivement dans nos vies. En effet, on assiste depuis quelques années à une véritable montée en puissance de la Smart City qui s'illustre par la multiplication des projets Smart, leur intégration dans les agendas stratégiques politiques et les milliards d'euros investis dans cette nouvelle forme de développement urbain (Martinez-Balleste et al., 2013; Vanolo, 2014). Face à une telle déconnexion entre les plans de développement stratégiques et la réalité vécue par les citadins, le modèle Smart s'installe à l'insu de la population qui ne sait pas réellement à quoi s'attendre et n'a pas conscience des conséquences associées. Par ailleurs, la littérature scientifique actuelle se focalise davantage sur les perspectives des experts et des décideurs, au détriment des perspectives citoyennes. Alors que certaines recherches récentes mettent en évidence les logiques divergentes d'appropriation de la Smart City par les différents acteurs, y compris les citoyens (Desdemoustier et al., 2019; Vanolo, 2016), il nous semble essentiel d'étudier plus en profondeur ce point de vue citoyen encore peu exploré. Ce focus sur les usagers de la ville nous semble d'autant plus crucial que les premières initiatives Smart, en particulier dans le domaine énergétique avec l'implémentation des Smart Meters, ont essuyé quelques échecs liés à la méfiance des habitants vis-à-vis de ces systèmes automatisés et du partage de leurs données privées (Balta-Ozkan, Davidson, Bicket, & Whitmarsh, 2013). Ce rejet potentiel des technologies Smart s'est encore illustré récemment à travers les craintes de certains citoyens -à-vis de l'utilisation de l'application de tracking sanitaire Coronalert en regard du respect de leur vie privée par exemple. Ce genre d'expériences montre à quel point les citoyens ne peuvent être considérés comme de simples spectateurs ou consommateurs passifs, mais jouent en réalité un rôle beaucoup plus crucial en termes d'adoption du modèle Smart déployé (Monfaredzadeh & Krueger, 2015). Par conséquent, nous soulignons l'importance d'étudier l'acceptabilité des solutions Smart City et leur pertinence par rapport aux besoins réels des citoyens ; et d'envisager ces citoyens comme des experts de leurs propres usages et de faire appel à cette connaissance tacite pour résoudre des problèmes systémiques complexes. Cette volonté de réintégrer les citoyens dans la fabrique de la Smart City est partagée par un nombre croissant d'acteurs et donne lieu à un changement de paradigme vers un modèle Smart plus anthropocentré. Cette nouvelle approche implique que l'intelligence de la Smart City réside aussi (et surtout) dans celle de ses Smart citoyens. Une manière d'accéder à cette intelligence collective et à cette expertise d'usage est la participation citoyenne. Les approches participatives se distinguent des autres approches centrées usagers par le rôle endossé par les citoyens qui ne sont pas seulement des sujets d'étude, mais de véritables acteurs. Bien qu'elle affiche un consensus sur la pertinence de la participation au sein de la Smart City, la littérature possède encore quelques zones d'ombre que nous ne manquerons pas d'explorer à travers notre thèse. En particulier, des questions quant à l'identité des Smart citoyens et à l'implémentation de la participation citoyenne en contexte Smart restent en suspens. Qui sont les Smart citoyens? Comment souhaitent-ils participer à la fabrique de la Smart City? Quelles approches participatives préconiser? Comment les approches existantes s'adaptent-elles au contexte numérique? Pourquoi un focus citoyen et participatif? Note de positionnement : une thèse dédiée aux professionnels de l'urbain Avant de plonger dans le vif du sujet, cette note de positionnement vise à établir la posture adoptée au cours de cette thèse de doctorat en regard de trois aspects : l'héritage formatif, la philosophie interdisciplinaire et l'étendue du sujet traité. Pour commencer, cette recherche est teintée par mon parcours personnel et le même sujet aurait évidemment pu être abordé différemment par d'autres chercheurs issus d'autres formations. En tant qu'ingénieure architecte, j'ai été formée aux Sciences Appliquées et cette thèse relève du Collège de doctorat en Sciences de l'ingénieur et technologies (Architecture, Génie civil et Géologie). Cet ancrage disciplinaire à la croisée de l'ingénierie et de l'architecture induit deux orientations majeures assumées tout au long de la thèse. D'une part, je me positionne comme une ingénieure qui étudie des phénomènes complexes avec une certaine neutralité scientifique et vise la formulation de solutions et de recommandations opérationnelles. Le cheminement réflexif de l'ingénieur se caractérise en effet par une analyse cartésienne des faits, sans nécessairement porter de jugement de valeur sur la situation à l'étude, afin d'en formuler une modélisation et de proposer des améliorations et pistes de solutions plus ou moins créatives et innovantes sur base de ses observations. D'autre part, je me positionne comme une architecte qui se préoccupe des processus de conception urbaine et des rôles que les concepteurs et non-concepteurs jouent dans la fabrique de la Smart City. Cette posture de conceptrice implique également une vision plus sociale de l'ingénierie, dépassant le solutionnisme technologique au profit d'une intégration des usagers aux processus de conception. Ce positionnement humaniste peut sembler anodin aux yeux de chercheurs issus des sciences humaines et sociales, mais représente en réalité une véritable prise de risque vis-à-vis de mes pairs, s'attendant probablement à une thèse axée sur le développement et l'optimisation technologiques de la Smart City. Cette recherche milite donc en faveur d'un décloisonnement des sciences et techniques et adopte une philosophie intrinsèquement interdisciplinaire. En particulier, ce travail se caractérise par une ouverture aux sciences humaines et sociales et convoque des concepts et des approches encore peu exploités en ingénierie. Néanmoins, je n'en deviens pas pour autant sociologue, politologue, philosophe ou encore économiste et je ne prétends pas étudier la participation dans la Smart City depuis ces différents prismes disciplinaires. Dans un processus de découverte, je m'appuie simplement sur des cadres conceptuels et méthodologiques empruntés aux sciences sociales, me les approprie et les exploite au bénéfice de mon projet de recherche. Ce transfert de connaissances depuis d'autres disciplines est essentiel étant donné la nature complexe tant de la Smart City que de participation citoyenne, deux concepts qui appellent forcément plusieurs expertises. Toutefois, le manuscrit reste dédié aux professionnels des villes et les contributions majeures de cette thèse découlent d'une volonté d'équiper les concepteurs et les décideurs avec des outils et des méthodes afin d'inclure les citoyens dans les processus de conception de leurs Smart Cities. Pour finir, j'opère une distinction entre le contexte et le sujet de cette étude. En effet, la Smart City est ici envisagée comme un cadre et ce sont les processus participatifs la façonnant qui constituent le véritable objet de cette recherche. 5 Plan de la thèse La suite de cette thèse s'organise en cinq grands chapitres. Pour commencer, nous réalisons une revue de la littérature qui présente l'état actuel des connaissances scientifiques ainsi que les concepts fondamentaux qui circonscrivent notre recherche. Cet état de l'art s'articule en trois parties principales dont les deux premières portent chacune sur l'un des deux concepts clefs de cette thèse, à savoir la Smart City et la participation citoyenne. Ces deux concepts étant tous deux sujets à des interprétations multiples voire paradoxales, ce premier chapitre n'a pas vocation d'exhaustivité, mais vise plutôt à démêler et à mettre en relation les définitions, principes et modèles pour en extraire ceux qui seront utiles à notre projet de recherche. L'ensemble de ce chapitre est également empreint et délimité par notre ancrage dans le monde de la conception et la place que peuvent y tenir les usagers finaux. La troisième et dernière partie de ce chapitre expose les questions de recherche formulées sur base des manquements identifiés à travers la littérature. Le deuxième chapitre détaille notre cadre théorique et méthodologique et s'articule en cinq grandes parties. La première partie précise le positionnement épistémologique et théorique que nous adoptons pour concevoir et conduire notre recherche. La deuxième partie décrit l'articulation de nos huit terrains de recherche et leur correspondance à nos trois questions de recherche principales, ainsi que les fondements théoriques généraux des méthodologies et des méthodes mobilisées dans la suite de la thèse (les questionnaires, les études de cas, les entretiens, les Focus Groups et l'observation in situ). Les trois parties suivantes développent les stratégies de collecte, de traitement et d'analyse des données déployées à travers les trois phases 'étude (diagnostic, exploration et expérience). Pour chaque terrain de recherche, nous décrivons également les spécificités du contexte et les caractéristiques des participants invités à prendre part à l'étude. Le troisième chapitre présente l'ensemble des résultats de la thèse, divisé en trois parties, correspondant chacune à l'une des phases de notre recherche. 1. La phase de diagnostic vise à comprendre la perspective des Smart citoyens vis-à-vis de la Smart City et des processus participatifs. L'objectif est de dresser le portrait des Smart citoyens wallons sur base d'une analyse de données essentiellement quantitatives issues de deux questionnaires et de trois plateformes de participation en ligne. Ces trois terrains s'attachent à mieux cerner les priorités, les attentes et les réactions des citoyens vis-à-vis des différentes solutions technologiques et participatives possiblement mises à leur disposition dans le contexte Smart. 2. La phase d'exploration a pour objectif principal d'étudier les processus participatifs tels qu'ils sont concrètement mis en oeuvre par les experts2, d'abord dans des villes qualifiées de Smart Cities et ensuite sur le territoire wallon. Nous adoptons une approche qualitative basée sur une étude de cas multiples mobilisant des entretiens approfondis avec des experts internationaux et locaux, ainsi que des Focus Groups avec les participants d'une initiative de budget participatif observée in situ à Montréal. Ces trois terrains s'attachent à mieux cerner les grands principes et les bonnes pratiques à mettre en oeuvre pour conduire un processus participatif dans le contexte spécifique de la Smart City. 3. La phase d'expérience organise notre propre démarche participative en Wallonie sur base des résultats obtenus lors du diagnostic et de l'exploration. À travers une première expérimentation à Juprelle, nous mettons au point un outil participatif, le Feel Good Toolkit, pour soutenir la phase de planification de processus participatifs. Dans un second temps, nous co-organisons un processus participatif complet appliqué dans quatre villes wallonnes : Arlon, Aubange, Charleroi et Liège. Nous nous intéressons surtout au ressenti expérientiel et à l'évaluation de ces initiatives par les participants eux-mêmes, dans une d'amélioration des processus participatifs à l'ère numérique. Le quatrième chapitre propose une discussion des résultats obtenus. Nous commençons par en dresser une synthèse transversale en regard des questions de recherche. Nous distinguons les contributions théoriques, méthodologiques et opérationnelles issues des huit terrains de recherche. Nous poursuivons avec la discussion de six thématiques transversales en lien avec les évolutions de la participation citoyenne à l'ère des Smart Cities. Le cinquième chapitre conclut cette thèse, en résume les principaux apports et limitations. Nous proposons également un aperçu des perspectives futures qui constituent des pistes d'approfondissement de notre travail et d'ouverture à de nouvelles recherches potentielles. Nous qualifions d'« experts » tous les professionnels issus de différents domaines disciplinaires disposant tant de connaissances théoriques que de compétences pratiques en termes de participation citoyenne dans la Smart City. Cette maîtrise découle d'une certaine expérience acquise lors de l'étude, de l'organisation ou de la conception de dispostifs participatifs. Introduction Chapitre 1 – État de l'art Cette revue de la littérature s'organise en deux grandes parties portant chacune sur l'un des deux concepts clefs de cette thèse, à savoir la Smart City et la participation citoyenne. Premièrement, nous commencerons par aborder la question de la Smart City à travers ses définitions (Section 1.1), ses modèles principaux (Section 1.2) et une revue critique de cette nouvelle forme de conception urbaine (Section 1.3). Deuxièmement, nous exposerons l'intérêt de la participation à l'ère des Smart Cities (Section 2.1). Nous présenterons alors ce qu'est la participation citoyenne via un bref historique (Section 2.2) et les définitions de la participation citoyenne (Section 2.3). Nous nous intéresserons ensuite aux citoyens en détaillant leurs profils et savoirs (Section 2.4) et leur participation en conception (Section 2.5). Nous terminerons par les principes et modèles (Section 2.6) ainsi que les limites et les atouts de la participation citoyenne (Section 2.7). La première partie est intentionnellement plus courte que la seconde pour deux raisons : d'une part, parce que la littérature est beaucoup plus abondante en ce qui concerne la participation citoyenne que la Smart City, qui est un phénomène beaucoup plus récent ; d'autre part, parce que la première partie vise à poser le contexte de notre étude, c'est-àdire la Smart City, alors que la seconde s'intéresse plus précisément au sujet de notre étude, c'est- -dire la participation citoyenne tant de manière générale que dans le cadre de la Smart City. Nous effectuerons donc des liens entre Smart City et participation citoyenne à plusieurs reprises. Pour finir, une troisième et dernière partie présentera les questions de recherche qui guideront la suite de la thèse.
12,200
56/tel.archives-ouvertes.fr-tel-03337191-document.txt_63
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,727
14,277
En ce qui concerne la limite méridionale du site, celle-ci mériterait d'être confirmée au-delà des extensions sud du sondage 58768 bien que l'érosion du site soit très importante à cet endroit (ce qui diminue grandement les probabilités de découverte). Par conséquent on peut estimer, sur la base de la zone évaluée, une emprise funéraire de quelques centaines de mètres carrés (environ 1500m2) et un nombre minimum d'environ 30 sépultures. En tenant compte de l'incertitude relative aux contraintes techniques exposées cidessus, il faut prévoir la possibilité d'une extension de l'espace funéraire en partie nord occidentale (correspondant à l'axe de la ligne de crête où étaient stockés les déblais de GSO). Dans ce dernier cas le nombre de sépulture pourrait doubler ou tripler" (CHOPIN, 2006, p. 34-36). "Les monnaies de la nécropole La Fontaine par Vincent Geneviève (Pour cette partie, voir la planche relative au mobilier de La Fontaine, Sd 587, Sp 3). La sépulture Sp 3, repérée dans le sondage 87, a livré 21 monnaies de bronze. Les piécettes étaient regroupées près de l'individu, certainement dans un contenant en matière périssable, comme un tissu ou une bourse de cuir, mais dont aucune trace n'a été relevée en raison de l'acidité du sol (?). Quelques monnaies sont encore soudées entre elles par groupe de 2 ou de 3. L'état des pièces est globalement bon puisque certaines d'entre elles ont pu être partiellement identifiées alors qu'aucune intervention de nettoyage n'a encore été pratiquée. Il reste évident que la restauration de l'ensemble du dépôt sera nécessaire avant de procéder à son étude. Les 21 monnaies recueillies sont a priori toutes attribuables au IVe siècle et semblent appartenir aux abondantes émissions monétaires frappées dans les années 330-340. Les types Gloria Exercitus à deux et un étendard et les séries urbaines aux noms des capitales impériales Rome et Constantinople ont ainsi pu être reconnus. L'émission la plus récente est au type Victoriae Dd Auggq Nn représentée par plusieurs exemplaires au sein du dépôt. En revanche, l'état de conservation actuel des monnaies ne permet pas d'attribuer ces frappes à l'un des multiples dynastes constantiniens de l'époque ni même d'affirmer s'il s'agit là de productions émanant d'ateliers officiels de l'empire ou de quelques officines clandestines locales. Quelques commentaires peuvent déjà être évoqués autour de cet ensemble. S'il ne s'agit bien sûr, compte tenu du contexte, que d'un dépôt à caractère de viatique, celui-ci semble bien correspondre à une ponction sur la circulation monétaire courante. L'étude conjointe des sépultures et des mobiliers associés permettra d'en préciser un peu plus les datations. Mais surtout, l'analyse détaillée de cet ensemble pourrait se révéler particulièrement intéressante pour la chronologie de l'émission Victoriae Dd Auggq Nn, datée par certains dans les années 347-348 et par d'autres à partir des années 340 ou 341-342. Si la différence entre ces deux datations apparaît somme toute minime, elle ne peut-être qu'affinée par l'étude des rares ensembles monétaires se fermant avec cette émission. Ce pourrait être le cas du dépôt de Leboulin. Aussi, malgré une quantité de monnaies plutôt réduite, le dépôt monétaire exhumé dans la sépulture 3 du sondage 587 à Leboulin se révèle d'une composition et d'une datation très importantes. Il conviendra donc d'envisager, lors de la fouille à venir, la prise en charge de la restauration et de l'étude de ce lot de 21 bronzes ainsi que celle des autres monnaies isolées amenées à compléter l'examen de cet ensemble. Cette analyse s'avère indispensable, tant dans le cadre de l'étude de la tombe et du site d'une part, mais surtout pour une meilleure connaissance de la circulation du numéraire dans la région et de la chronologie des émissions monétaires du milieu du IVe siècle" (CHOPIN, 2006, p. 72-73). Données de la fouilles de N. Pouget : 14 inhumations et 2 structures de combustions (bûchers cinéraires). Malheureusement aucun depôt secondaire identifié (tombe incinération secondaire fosse de rejet de résidus de combustion) n'est spatialement associé aux bûchers, cependant, la présence de deux vases en positions fonctionnelle et vides d'artefacts interpellent quant à leur filiation à la pratique de l'incinération. N. Pouget rappelle également que "les defunts inhumés sont ssystématiquement déposés sur le dos et généralement constitué de tegulae placées en bâtière au-dessus du corps du défunt". Les structures funéraires liées à la pratique de la crémation : "Deux fosses de forme oblongue, repérées dans la partie orientale de la zone fouillée et distantes de 2 m l'une de l'autre. Elles présentent des traces de rubéfaction sur les parois verticales ce qui indique que ces structures ont été le siège d'une ou plusieurs combustion(s). Structure 5 : le comblement de cette structure a livré un poids total d'ossements humains de 616,4 g. Les ossements sont associés à du mobilier qui a subi l'action du feu (céramique, clous, objet de parure en or, 6 petits objets de bronze et d'éléments d'huisserie en fer, frag. de verre non id.). L'identification a permis de restituer le bûcher cinéraire d'un individu adulte. La lampe à huile retrouvée correspond à une contrefaçon datée de la fin du Ier siècle ou du IIe siècle ap. J.-C par conséquent, la mise en place de cette structure est assurément post. à la fin du Ier siècle ap. J.-C. La datation C14 effectuée sur un ffrag. de charbon de bois issu du sédiment de remplissage confirme ces résultats en indiquant une probabilité de 68,3 % de la datation entre 80 et 212 ap. J.-C. et de 94,5 % entre 51 et 243 ap. J.-C. La structure 3 : indices beaucoup tenus que la structure 5. Le dégagement du comblement de cette structure a livré un poids total d'ossements humains brûlés de 85,7 g, soit une quantité très faible. Ils sont associés à du mobilier céramique ayant subi l'action du feu. Paarmi ces éléments, un petit ovoïde à bord tronconique dont la forme restituée pourrait évoquer des prod. de céram. engobées de la fin du IIe et du IIIe siècle et un frag. de bandeau de lampe à huile. Les éléments métalliques (clous de coffrage et clous de chaussure, sont également représentés mais en faible quantité + 2 clous décoratifs en tôle de bronze). Les restes osseurs humains brûlés présentent une coloration uniformément blanche qui indique une exposition à des températures élevée (sup. à 600°C) pendant un temps assez long. La faible quantité d'os retrouvés semble indiquer que la très grande majorité des os a été prélevée après la combustion. Les données anthropo-biologiques donne l'identification d'un individu adulte. Aucune autre donnée disponible en l'état. La chronologie du mob. mis au jour est assez peu précise. La forme du petit ovoïde pourrait évoquer les prod. de céram. engobées de la fin du IIe et du IIIe siècle, mais nous ne disposons pas de plus d'indice chronologiques" (POUGET, 2011, p. 41-49). "Les inhumattions : A l'issue de l'opération de fouille nous comptons au total 11 faits archéologiques qui abritent 13 inhumations. A cet ensemble s'ajoute celle fouillée lors du diagnostic (Sp 3) aini que 4 structures de même nature repérées par J.-F. NUMISMATIQUE: 21 monnaies de bronze OBJETS_DIV: - Lampes - Parure en or - Clous - Clous décoratif en tôle de bronze TOPO GRAPHIE : Site Oui BIBLIOGRAPHI : CH , 2006. GET, Nécropole du Garros SITUATION: La nécropole sud de la ville antique de Auch, est localisée entre le quartier du Garros et la maison de retraite de La Ribère, le long des rues P. de Montesquiou et Darwin. HISTORIOGRAPHI E : De nombreuses découvertes ont été effectuées entre le XVIIIe et le XIXe siècle dans cette zone, bien que l'on possède très peu de détails sur ces découvertes. En 1825, M. Filhol note la découverte (lors de travaux sur le chemin de Garros) d'une statue de femme en marbre, sans tête, drapée. En 1881, G. Collard dessine une sépulture d'enfant contenant une fiole en verre. Durant la seconde moitiré du XIXe siècle, on y découvre des inscriptions funéraires sur marbre (C.I.L., XIII, 454, 459, 467, 468, 484, 486, 11027). Les récentes découvertes effectuées dans le cadre de l'archéologie préventive en 2009 semble également confirmer cette identification (GARDES, 2011, p. 97). DESCR_VESTIGES: PERIODE: De nombreux tombeaux romains sont mentionnés depuis le XVIIIe siècle", ainsi que d'importants éléments scluptés, dont une statue féminine en marbre (découverte au début du XIXe siècle). Le secteur a également livré de nombreuses inscriptions funéraires sur marbre de même qu'une dédicace aux Vents (XVIIIe siècle). Enfin, une sépulture d'enfant, accompagnée d'une fiole en verre a été étudiée par G. Collard à la fin du XIXe siècle. Philippe Gardes indique également en 2011, dans son rapport de diagnostic, plusieurs éléments architecturaux appartenant à un ou plusieurs mausolées ont été découverts dans un remblai recouvrant la probable portion extra-urbaine de la voie, dont notamment un bloc calcaire sculpté en ronde bosse, composé d'une figure féminine adossée d'une bractée d'acanthe et d'une large volute. D'après Ph. Gardes, ces éléments permettent d'évoquer ce d'un ou plusieurs mausolées de type tour ou pile avec des éléments du soubassement (blocs équarris), peut-être du registre moyen (bloc mouluré) supportant la niche destinée à accueillir la représentation du défunt et de la base du toit (accrotères sans doute doute disposées aux angles) (GARDES, 2011, p. 93). Ces éléments pourraient correspondre aux premiers monuments funéraires de la nécropole bordant la voie à la sortie sud de la ville. Il semble que l'axe nord-sud correspondant à la voie de Saint-Bertrand-de-Comminges soit désaffécté à partir de la fin du IVe ou plus probablement du Ve siècle ap. J.-C. Faut-il alors en déduire que la nécropole qui bordait la voie, perd également de son utilité à ce moment, au profit d'une autre? (GARDES, 2011, p. 97). CONNEXION_EDIFICES: Citée attestée Haut-Empire - Bas-Empire PRECIS_PERIODE: Ier - Fin IVe s. ap. J.-C. Nécropole de la gare SITUATION: Cette grande nécropole s'entendait entre l'avenue de la gare et le chemin de la Réthourie. HISTORIOGRAPHIE: Sous le Second Empire, de multiples découvertes ont été effectuées dans ce secteur, "en allant vers l'avenue de Toulouse", où dès le XVIIIe siècle, on aurait mis au jour des tombeaux d'époque gallo-romaine, d'après A. Dumège. E. Bischoff signale également quelques découverte, même si aucun rapport n'a été fait à ce moment là, lors de la construction de la gare (1865). La plupart des archéologues de l'époque ne mentionnent le site que de façon vague (Voir CAG 32, p. 78). La CAG 32 (LAPART, PETIT, 1993, p. 78) mentionne cette nécropole et en donne quelques caractéristiques succinctes. Plus récemment, une opération préventive (diagnostic) menée à la Réthourie par Fr. Veyssière (Inrap), en septembre 2013, a permis de mettre au jour des éléments périphériques d'une nécropole. La distance de ces découvertes avec celles effectuées sur la nécropole dite de la gare(environ 500 m) reste trop importante pour être certain qu'il s'agisse bien de la même nécropole. DESCR_VESTIGES: PERIODE: D'après la CAG 32, cette nécropole comportait de grands monuments funéraires avec des antéfixes, des corniches, des chapiteaux de marbre, des togati, mais aussi des sépultures en amphore plus tardives (LAPART, PETIT, 1993, p. 78). E. Bischoff signale également lors des découvertes effectuées au moment de la construction de la gare, des corniches, des inscriptions (C.I.L., XIII, 443, 481, 488, 491, 11024 et 11026), des sarcophages ainsi que des poteries communes et des lampes. Haut-Empire - Bas-Empire CONNEXION_EDIFICES: Citée attestée PRECIS_PERIODE: Ier s. ap. J.-C. - Bas Empire TPQ: 1 TAQ: 500 Oui OSSEMENTS: Incertain SARCOPHAGES: Incertain URNES: Incertain CERAMIQUE: Céramique commune, amphores, lampes NUMISMATIQUE: Non signalées OBJETS_DIV: Nombreuses inscriptions funéraires C.I.L., XIII, 443, 481, 488, 491, 11024 et 11026 TOPOGRAPHIE: Oui , , 2014. Nécropole du Hallai SITUATION: Cette nécropole est relativement difficile à situer avec précision. La bibliographie indique que le site se situe sur le domaine du Hallai, dans un jardin. Plusieurs découvertes ont été effectuée dans une large zone périphérique près du chemin de la Réthourie (Voir VEYSSIERE, 2014). Cette nécropole n'était pas très loin de celle découverte au niveau de la gare SNCF, au nord-est. HISTORIOGRAPHIE: De nombreuses découvertes ont été effectuées dans cette zone entreles années 1880 et 1893 par M. Monédé, G. Collard, principalement. Compte tenu de leur importance et de la proximité de la nécropole mis au jour sous la gare, il est possible que ces deux nécropole aient pu formé un ensemble funéraire plus important. DESCR_VESTIGES: En 1880 : le propriétaire du domaine du Hallai entreprend des fouilles dans le jardin attenant à une habitation. Il y découvre des fragments d'inscriptions sur marbre (C.I.L., XIII, 464, 470, 490), des débris de statues, des sculptures architecturales, des plaques de revêtement en marbre et en porphyre. G. Collard mentionne à son tour une grande quantité de poterie rouge sigillée (avec marques de potiers : "HILARI / ARTE, IOVI, PROBI, ATRI). de la céramique commune, des verreries, des objets en fer, en bronze, ainsi que des monnaies en bronze d'Antonin le Pieux, Sévère Alexandre, Tétricus, Postume, Constantin et un denier d'argent de Julien l'Apostat. En 1882 : M. Monédé réalise de nouvelles découvertes. - Une grande inscription funéraire en marbre constitué de 3 frag. jointifs (C.I.L., XIII, 444). - Il met également au jour les substructions d'un bâtiment rectangulaire dont les parements extérieurs sont en petit appareil et un plus loin, une muraille beaucoup plus importante appareillée de la même manière, appartenant à une deuxième construction dans un alignement différent. Le matériel archéologique alors découvert semble très important et de nouvelles inscriptions funéraires apparaissent (C.I.L., XIII, 456 et 446). Elles mentionnent un duumvir. Deux corps de statues drapées avec un trou entre les épaules pour recevoir une tê amovible, ainsi que plusieurs têtes en marbre dont un portrait masculin d'époque tibérienne sont mis au jours. En septembre 1884 : M. Monédé découvre le fragment d'une nouvelle inscription funéraire (C.I.L., XIII, 465). En mai 1885 : nouvelle épitaphe entière (C.I.L., XIII, 475) découverte au Hallai. En septembre 1886 : on met au jour une inscription incomplète constituée de 6 frag. de marbre (C.I.L., XIII, 469), trouvée avec une antéfixe en marbre blanc décorée d'une tête diadémée, une amphore, une lampe en terre cuite et deux monnaies d'argent et de bronze de Domitien. Tous ces éléments se trouvaient à l'intérieur d'une construction encore pourvue de la base de ses murs et pavée d'une mosaïque assez grossière. En juillet 1887 : apparait un nouveau frag. de marbre inscrit (C.I.L., XIII, 494) appartenant à un tombeau de 25 pieds de large. En décembre 1892 : un journal local annonce qu'en fouillant un monument funéraire, sur les hauteurs du Hallé, M. Monédé mis au jour, "un splendide marbre de Carrare avec Page 111 inscription" (non identifié d'après la CAG 32), des fragments inscrits potant les noms Silvani et Capi (probablement le C.I.L., XIII, 11024), quatre anneaux en or et en argent avec pierres enchâssées (turquoise et aventurines), des unguentaria, une pince épilatoire et trois grands bronzes (le premier "de la colonie d'Espagne portant sur une face la tête d'Auguste et au revers une vache et un boeuf (Caesaraugusta / Saragosse), le second est un as de Nîmes, le troisième porte les tête de Néron et de Germanicus). Les semaines suivantes, le même journal annonce la mise au jour d'un cippe et de deux grandes haches celtiques en pierre polie, puis d'une muraille construite en petit appareil avec l'intérieur décoré de splendides mosaïques. En 1893 : les journeaux signalent encore découvertes, dont les frag. de marbre et des monnaies. En 1894 : les travaux semblent continuer dans la construction découverte en 1886, et qu'ils y découvrirent des débris d'amphores, et des poteries, une monnaie (moyen bronze) de Constantin, une lampe en terre cuite, une pince à épiler, deux grandes épingles en ivoire, une main de statue en marbre, puis un torse de statue en marbre, un frag. d'inscription (?), une amphore, un fibule, deux monnaies de Tibère et de Néron, une meule de granit, une épée gallo-romaine (?) très oxydée, deux lampes et enfin un pilier, des épingles à cheveux, des bules et neuf pièces d'argent à l'éffigie de Carin. Pour terminer, dans la propriété voisine du Hallai, chez M. Scheurler, un portrait masculin en marbre daté de l'époque tibérienne a été mis au jour. (LAPART, PETIT, 1993, p. 78). PERIODE: CONNEXION_EDIFICES: Citée attestée Haut-Empire - Bas-Empire PRECIS_PERIODE: IIe - IVe s. ap. J.-C. TPQ: 101 TAQ: 400 Oui OSSEMENTS: Incertain SARCOPHAGES: Oui URNES: Incertain CERAMIQUE: Sigillées, amphore, céramiques communes, lampes NUMISMATIQUE: Bronze d'Antonin le Pieux, Sévère Alexandre, Tétricus, Postume, Constantin et un denier d'argent de Julien l'Apostat. Deux monnaies d'argent et de bronze de Domitien. OBJETS_DIV: Nombreuses inscriptions funéraires C.I.L., XIII, 464, 470, 490, 444, 456, 446, 465, 475, 469, 494, 11024. Epingles à cheveux (dont quelques unes en ivoire) Pinces à épiler une épée Fragments de statues Fragments architecturaux Oui Anneaux d'or et d'argents avec pierres enchâssées. Fibules. TOPO : Site BIBLIOGRAPHIE: LAPART, PETIT, 1993, p. 78. VEYSSIERE, 2014. Nécropole du Cap du Caillou I nhumation SITUATION: Au départ du chemin médiéval de pèlerinage vers Saint-Jacques-de-Compostelle, dont le tracé reprend probablement la voie Auch-Beneharnum, cette nécropole est située au quartier Cap du Caillou, Côte de Neiges, autour de l'actuelle rue de l'Eglité. La nécropole semble se prolonger sur le coteau voisin de Monbernat. HISTORIOGRAPHIE: Au XVIIIe siècle l'abbé Daignan du Sendat signalait la découverte d'une inscription funéraire. Par la suite, sous le Second Empire, des travaux d'extraction d'argile conduire à de nombreuses découvertes, sauvées par M. Vandermarq et G. Collard. Ces dernières ont été publiées par E. Taillebois en 1881. D'autres sépultures ont été trouvées sur le côteau voisin de Monbernat (CANTET, dans Bull. Gers, 74, 1973, p. 405), ce qui pourrait indiquer la continuité de cette nécropole. DESCR_VESTIGES: PERIODE: La CAG 32 reprend les informations publiées par E. Taillebois en 1881 : "A 1 m de profondeur, les ouvriers ont dégagé une grande épitaphe (C.I.L., XIII, 487), quelques monuments épigraphiques en marbre plus ou moins brisés (perdus et / ou non décrits?), et plusieurs sépultures : un torse d'homme en pierre couvert d'une toge (1,02 x 0,55 x 0,32 m), un lion en pierre dure (0,75 x 0,40 m), une plaque de marbre ornée d'un dieu tricéphale. A environ 2 m de profondeur, on a exhumé des squelettes entiers sans sarcophages dont trois étaient côte à côte. Près de chaque tête était placé "un petit pot en terre cuite à une anse". Enfin, on signale plusieurs monnaies grands et moyens bronzes de Trajan, Antonin le Pieux, "Faustine" et Philippe. Le sol était jonché de poteries, d'ossements, de morceaux de marbre ou de pierres provenant des sépultures. Après avoir déblayé un espace de 12 à 15 m2, les ouvriers furent arrêtés par un vieux reste de mur renversé contre lequel on avait trouvé la plaque au dieu tricéphale [] La colline du Cap du Caillou possédait des monuments funéraires assez élaborés, attribuables au Haut-Empire (IIe et IIIe siècle ap. J.-C.)" (LAPART, PETIT, 1993, p. 81). Haut-Empire CONNEXION_EDIFICES: Citée attestée PRECIS_PERIODE: IIe - IIIe s. ap. J.-C. TPQ: 101 TAQ: 300 Oui OSSEMENTS: Oui SARCOPHAGES: Oui URNES: Incertain CERAMIQUE: Nombreuses poteries. Petit pot en terre cuite à une anse. Bronzes de OBJETS_DIV: Inscription funéraire : C.I.L., XIII, 487. Sculptures d'homme et de lion Plaque de marbre avec effigie d'un dieu Tricéphale TOPOGRAPHIE: Site BIBLIOGRAPHIE: LAPART, PETIT, 1993, p. 81. LAVERGNE, 1881, p. 355-362. TAIL OIS , 1881. NOM_COMM: Eauze INSEE: 32119 NUM_SITE: 74 Nécropole orientale d'Eauze Incinération SITUATION: Cette nécropole à incinération est située au sud-est de la ville antique d'Elusa / Eauze. La parcelle concernée appartient à la société ETS Saint-Loubert, gestionnaire de l'usine de placage bois voisine. De plus, le site est directement en bordure de la voie repérée par prospection aérienne en 1991 par C. Petit-Aupert. Pierre Pisani remet en question cette identification. HISTORIOGRAPHI E : La nécropole fut découverte en 2009 lors d'un diagnostic archéologique mené sous la responsabilité de P. Pisani, sur une emprise sondée de 27 930 m2 (soit 4,50 % de la surface totale des travaux d'aménagement). La nécropole n'est apparue qu'en limite d'emprise dans le sondage 37. Le diagnostic archéologique a également permis de remettre en question l'identification de la voie repérée en prospection aérienne par C. Petit-Aupert en 1991 et sondée par D. Shaad et P. Sillières. DESCR_VESTIGES: Le sondage 37 se présente sous la forme d'une longue tranchée de près de 118 m de long. Il se situe à l'extrémité occidentale du diagnostic. Initialement, ce transect visait à recouper la voie antique mise en évidence en 1991. Bien que la voie n'a pu être identifiée, une portion de nécropole gallo-romaine à incinération a été mise au jour. Cinq structures partiellement arasées, liées à la pratique funéraire de la crémation ont été mises au jour. Ces dernières ont été interprétées comme un bûcher, un dépôt de résidus de crémation et trois sépultures à dépôt secondaire de crémation en urne. La fouille a permis de mettre en évidence que les parties sommitales de ces structures avaient été anciennement arasées par des travaux agricoles. Le bûcher F105 : structure très arasée correspondant à une fosse rectangulaire de 2,60 m de long pour 1,30 m de large. Les bords de la structure sont partiellement rubéfiés. Son comblement contient une grande quantité de cendres et de frag. importants de bois carbonisés ainsi qu'une grande quantité de céramiques et de clous. Aucun reste osseux. La céramique récolté dans le comblement se compose de restes de lampes et d'un de céramique claire calcaire. 276 restes de luminaires déterminent 45 indiv. +/bien conservés. La datation du comblement, malgré l'abondance du mobilier, reste imprécise. Bien que le type de lampe (Loeschcke VIII) évoque une datation milieu du Ier siècle ap. J.-C. à la fin du IIe siècle ap. J.-C., l'absence d'autres catégories techniques ne permet pas de préciser la datation de ce bûcher. P. Pisani préfère retenir une datation plus large du "Haut-Empire". Le dépôt de résisud de crémation F101/F102 : fosse de forme irrégulière. Aucun reste humain exploitable n'a été mis au jour. 147 (2 frag. de lampes et 145 CC) restes appartiennent à des céramiques fines et des céramiques communes. Ils déterminent 17 indiv. qui se répartissent dans 5 catégories techniques. La céramique commune ne permet pas de dater précisément la structure. En revanche, la lampe semble avoir été produite entre le milieu du Ier siècle et la fin du IIe siècle ap. J.-C. et permet donc de préciser le terminus post quem. Les dépôts secondaire de crémation en urne, F100, F107, et F108 : Les structures F100 et F108 sont des fosses de forme circulaire (F100) et irrégulière (F108). Les urnes qu'elles contenaient ont été prelevées en motte pour être étudiées en laboratoire. Malgré la perte d'une partie de leur remplissage due à l'arasement ancien des structures, il est rapidement apparu que le comblement funéraire demeurait intact. L'urne de la structure F107 a été mise au jour lors du creusement de la tranchée par la pelle mécanique et à été en partie coupée verticalement par le godet. Bien qu'elle ait livré une importante quantité d'os brûlés, les données pondérales de cette urne n'ont été enregistré qu'à titre indicatif et n'non pas été interprétées plus avant. L'urne F100 : 478,9 g d'os et correspond visiblement à 1 adulte, sans doute assez âgé. La couleur blanche uniforme des os et leur "sonorité métallique" suggèrent une crémation importante à une température élevée (sup. 650°C). L'urne F107 : 446,3 g d'os correspond à 1 adulte. Idem pour la crémation à haute température. L'urne F108 : 68,7 g d'os, et correspond à 1 adulte. Crémation importante (sup. 650°C). Le Fossé FS 103 : apparue à 1,40 m de profondeur. Profil en U, avec des parois irrégulières et un fond légèrement concave. Son comblement est homogène, constitu d'un sédiment limoneux et argileux de couleur brun-jaune et des charbons de bois ont été reconnus. Un bloc taillé en calcaire blanc a également été trouvé. Le mobilier céramique correspond à 3 frag. de lampes identiques aux autres (type Loeschcke VIII), d'un bord de cruche à lèvre débordant oblique en céramique commune claire calcaire et d'une frag. de céramique claire calcaire non id. Une datation "Haut-Empire" a été retenue. Enfin, pour terminer, la fosse FO 7 (sondage 29), d'un diam. d'envion 1 m a livré dans son comblement, des matériaux de construction antiques (tegulae, moellons calcaires) inclus dans un sédiment limoneux et argileux homogène brun. Aucun autre type de mobilier découvert dans cette structure (PISANI, 2010, p. 44-60). PERIODE: CONNEXION_EDIFICES: Citée attestée Haut-Empire PRECIS_PERIODE: Milieu I e s La Gurlane Inhumation SITUATION: Localisation imprécise. Le site se trouve au lieu-dit "La Gurlane" à environ 1 km au nordest de l'église du village. HISTORIOGRAPHIE: Les circonstances de la découvertes sont indéterminées. On ne connaît qu'une mention littéraire de Ch. Palanque au début du XXe siècle. En 2003, F. Colleoni mène une enquête oral auprès du propriétaire de La Gurlane, sans résultat. F. Colleoni conclu dans sa thèse, d'après les recherches bibliographiques effectuées que le site correspondrait bien à une nécropole. DESCR_VESTIGES : PERI ODE : Le conservateur du musée d'Auch, Ch. Palanque, donne une description des vestiges mis au jour. La description est reprise par F. Colleoni : "Au milieu d'un bloc de maçonnerie construit en petit appareil, au-dessous de tuiles plates à rebord, on a découvert dans une épaisse couche de chaux des ossements humains que l'action de la chaux a réduit à peu de choses. Ces débris étaient placés dans une fosse orientée de l'est à l'ouest. Les dimensions de cette fosse sont en longueur de 3,7 m sur 0,7 m à la partie la plus large, et de 0,30 m à la partie inférieure. Dans les décombres qui environnaient cette sépulture, on a recueilli plusieurs frag. de pierre calcaire ornés de moulures, parmi lesquels se trouve une antéfixe". F. Colleoni indique que d'après "les données fournies par la bibliographie, on peut conclure sans difficulté que le correspond à une nécropole dans laquelle se trouvait au moins une tombe bâtie en petit appareil" (COLLEONI, 2007, site ASO-14, tome 2.1., p. 369370). CONNEXION_EDIFICES: Aucun édifice connu 1 TAQ: 500 Oui OSSEMENTS: Oui SARCOPHAGES: Non URNES: Non Non CERAMIQUE: NUMISMATIQUE: Non signalées OBJETS_DIV: Fragments de tegulae Pierre taillées en petit appareil TOPOGRAPHI , 2007, 2.1., , p. 369- . LAPART, PETIT, 1993, p. 122. PALANQUE, 1908, p. 72. Manadieu Inhumation SITUATION: Le site est localisé sur la commune de Bonas, dans le canton de Valence-sur-Baïse, au lieudit Manadieu, dans une parcelle nomée Gleysia, d'après le propriétaire du terrain. Le terrain était occupé par un vigne (visibilité mauvaise pour la prospection). Le site se trouve à environ 400 m à l'ouest de l'Auloue, et à 100 m d'un chemin (non repertorié). HISTORIOGRAPHIE: Le site a été découvert lors de prospections systématiques effectuées par F. Colleoni en 2002-2003. Ce dernier a également reccueilli des renseignements oraux de la part du propriétaire des lieux, indiquant qu'il avait fait la découverte de nombreux ossements humains et vestiges dans cette parcelle du Gleysia à Manadieu. DESCR_VESTIGES: Les prospections effectuées par F. Colleoni ont permis de dégager de nombreux restes humains (ossements) et des vestiges de construction. Les vestiges sont compris sur une superficie d'environ 5000 m2. Les matériaux de construction sont "répartis de façon homogène, avec des zones présentant des concentrations de moellons calcaires plus marqués, fréquents ; rares éclats de fragments de matériaux de construction en terre cuite (tuiles et briques) non datables, pierres taillées en petit appareil caractéristique de la période gallo-romaine), et moellons calcaires blancs, pierres équarries et moellons calcaires gris de l'Agenais (très abondants), moellons de grès rouge. Les concentration de calcaire blanc sont séparées des concentrations de calcaire gris" (COLLEONI, 2007, 2.2., VAL-18, p. 343-344). F. Colleoni apporte également quelques précisions sur la nature de ces découvertes et sur ces interprétations chronologiques. "la prospection systématique a permis de confirmer le témoignage oral indiquant la présence d'une nécropole à inhumations. En revanche, la parcelle de vigne non travaillée ne recelait pas de vestiges de construction attribuables de façon certaine à l'Antiquité, même si les découvertes de petit appareil calcaire et de moellons de grès rouge suggèrent la présence d'une construction gallo-romaine. Mais l'absence de découvertes de rebords de tegulae ne permet pas de conclusion sûre. élements de calcaire gris pourraient se rapporter aux bâtis funéraires. L'hypothèse de l'existence d'un habitat gallo-romain reste plausible si l'on tient compte des cas fréquents de corrélations entre le toponyme Gleysia et l'habitat gallo-romain. De nouvelles investigations pratiquées sur un terrain labouré apporteront sûrement des arguments interprétatifs plus probants en matière de chronologie. On doit également noter les découvertes dans les parcelles de vigne voisines de tessons isolés de céramique commune gallo-romaine et de fragments de tuiles vraisemblablement antiques. Ici aussi, les conditions d'étude au sol n'étaient pas favorables" (ibid.). PERIODE: 1 TAQ: 500 Non OSSEMENTS: Oui Non SARCOPHAGES: Non UR NES: Non CERAMIQUE: - 1 tesson de panse de CC à pâte grise, - 12 tessons de CC à pâte claire (10 frag de panse, 1 bord, et 1 fond), - 6 tessons indéterminés de céramique claire grossière (5 panses et 1 fond). NUMISMATIQUE: Non signalées OBJETS_ DIV : Moell ons de calc aires blancs, gris, grès rouge Pierres équarries Tuiles (TCA) Briques (TCA) TOPO GRAPHIE : Position 5_Partie basse de versant Lieu-dit BIBLIOGRAPHIE: COLLEONI, 2007 , 2.2. , VAL-18, p . 343-344 . NOM SEE: Esténos 31176 NUM_SITE: 77 Sempé SITUATION: Au lieu-dit Sempé, au sud du village d'Esténos, et probablement en bordure de la voie romaine qui depuis Saint-Bertrand-de-Comminges allait en direction de Bagnères-deLuchon. HISTORIOGRAPHIE: Les vestiges d'une nécropole antique ont été mis au jour au cours de l'hiver 1897-1898, par le propriétaire du terrain. En 1957, la reprise de fouilles archéologiques fut envisagée, mais le projet avorta Il faut également signaler que de nombreux remploi ont été signalé dans la façade de l'église paroissiale d'Esténos. DESCR_VESTIGES: Les auteurs de la CAG 31/2 indiquent que "plusieurs dalles de marbre, un fragment de chapiteau, un sarcophage et son couvercle, une auge cinéraire, une amphore à incinération et des tessons de céramiques communes furent dégagés par le propriétaire du terrain" (SABLAYROLLES, BEYRIE, 2006, p. 155). Il est plus que probable que les remplois découverts dans la façade de l'église paraoissiale et dans la maison Desprez, proviennent également de cette nécropole, nous les citerons donc rapidement. Une auge cinéraire (h. 49 cm, larg. 42 cm, long. 72 cm). Porte un décor géométrique d'oves (bord sup) et de damier (part. centrale) ainsi que des losanges (bord inf) et d'enroulement spiralés en S (bords lat.) Une plaque funéraire en marbre, disparue. Elle comportait deux bustes placés sous une double arcature. La défunte était représentée avec des boucles d'oreille et un vêtement à rabats. A sa gauche, le défunt portait une barbe et une moustache. La plaque comportait également un décor géométrique d'oves, de losanges, et de cercles. Une plaque décorée, disparue, vraisemblablement la plaque d'obturation d'une auge cinéraire. Elle comportait un motif central, un canthare, duquel sortaient deux pampres. Il était bordé d'un décor géométrique de demi-cercles de rectangles. Un couvercle d'auge cinéraire en marbre à double pente, conservé chez M; Desprez (ancienne maison Lézian) à Esténos, d'après la CAG 31/2. Le fronton triangulaire est orné de bustes du couple de défunts. Un couvercle en marbre d'auge cinéraire réutilisé en table de jardin dans la maison de Desprez (ancienne maison Lézian). Le frag. provient probablement, comme les autres vestiges, des fouilles effectuées en 1897-1898, au lieu-dit Sempé (voir précision sur les vestiges dans SABLAYROLLES, BEYRIE, 2006, p. 155-156, ainsi que la thèse de A. Laurens). PERIODE: 1 TAQ: 500 Non OSSEMENTS: Non SARCOPHAGES: Oui Oui URNES: CERAMIQUE: Céramiques communes Amphore à incinération NUMISMATIQUE: Non signalées OBJETS_DIV: Auges cinéraires + couvercles d ' auges Chapiteau Dalles en marbre Plaques funéraires décorées TOPOGRAPHIE : Position 6_Pied de plateau_vallon Lieu-dit BIBLIOGRAPHIE: BERNARD, 1898, p. 146-148. COUGET, 1898a, p. 64 ; 1998b, p. 147. CURBILLON, 1999, p. 147-148. LIZOP, 1931, p. 156. FABRE, 1991, p. 33. LAURENS, 1998, n° 34, 122, 167, 212. PRADALIE, SABLAYROLLES, Rapport, 1989, p. 40. SABLARYOLLES, BEYRIE, 2006, p. 155. SAPENE, 1957, p. 174. Non Lalanetto Incinération SITUATION: La nécropole à incinération est localisée "en bordure du chemin de Lalanetto" sans plus de précision dans la CAG 31/2. Elle bordait donc la voie antique en rive droite de la Garonne, Saint-Bertrand-de-Comminges - Espagne. HISTORIOGRAPHIE: La nécropole a été découverte lors de travaux réalisés un peu avant 1990, en bordure du chemin Lalanetto, l'ancienne voie romaine. DESCR_VESTIGES: PERIODE: La CAG 31/2 signale, d'après les données de J.-M. Fabre, une nécropole à incinération, ayant livré des bijoux (dont une bague), des tessels de mosaïques en marbre, parmi des cendres et des ossements calcinés (FABRE, 1991, p. 44-45). CONNEXION_EDIFICES: Aucun édifice connu Haut-Empire PRECIS_PERIODE: Ier s. av. J.-C. TPQ: -50 TAQ -1 SEPULTURES: Non OSSEMENTS: Oui SARCOPHAGES: Non URNES: Non Oui CERAMIQUE: NUMISMATIQUE: Non signalées OBJETS_DIV : - Bijoux - 1 Bague - Tesselles de mosaïque TOPOGRAPHIE: Lieu-dit BIBLIOGRAPHIE: FABRE, 1991, p. 44-45. SABLAYROLLES, BEYRIE, 2006, p. 146. Nécropole de la villa de Cujon Incertain SITUATION: La nécropole se trouve à environ 400 m au sud de la villa de Cujon. HISTORIOGRAPHIE: Le site a été découvert lors des prospections réalisées par C. Petit-Aupert entre 1987 et 1991. DESCR_VESTIGES: PERIODE: C. Petit-Aupert signale l'existence d'une nécropole ayant probablement fonctionné avec la villa de Cujon. CONNEXION_EDIFICES: Villa avérée 1 TAQ: 500 Incertain OSSEMENTS: Incertain SARCOPHAGES: Incertain URNES: Incertain Non CERAMIQUE: NUMISMATIQUE: OBJETS_DIV: TOPOGRAPHIE: Lieu-dit BIBLIOGRAPHIE: CABES, 2007, p. 75 . LAPART , PETIT, 1993, p. 227. LA PART, PETIT - AUPERT , 2006, p. 6776. NUM La Tuque Inhumation SITUATION: Le site se trouve au nord-est de Castelnau-Barabrens, au lieu-dit La Tuque, au sommet d'un coteau. HISTORIOGRAPHIE: Site découvert lors des prospections effectuées D. Ferry en 1983 puis re-prospecté par C. Petit-Aupert dans le cadre de sa Maîtrise en 1985. DESCR_VESTIGES: PERIODE: Site aperçu en prospections sur environ 10 x 20 m. C. Petit-Aupert a noté la présence de TSGR, d'ossements humains et de tombes détruites. CONNEXION_EDIFICES: Villa avérée Haut-Empire PRECIS_PERIODE: Ier - IIe s. ap. J.-C. TPQ: 1 TAQ: 200 Oui OSSEMENTS: Oui SARCOPHAGES : Non URNES : Non Non CERAMIQUE: NUMISMATIQUE : Non signalées OBJETS_DIV: TOPOGRAPHIE: Site BIBLIOGRAPHIE: FERRY, 1989. LAPART, 1985, p. 28. PETIT, 1985, p. 124-125 ; 1990, n° 34. Grand Malechaut Inhumation S ATION: Le site se trouve au sud de Mauvezin, au lieu-dit le Grand Malechaut, sur le sommet d'un plateau. HISTORIOGRAPHIE: Site mis au jour en 1985 par C. Petit-Aupert lors des prospections réalisées dans le cadre de sa Maîtrise. DESCR_VESTIGES: PERIODE: Site aperçu en prospections sur environ 20 x 10 m. C. Petit-Aupert a noté la présence d'amphores et de sarcophages. CONNEXION_EDIFICES: Aucun édifice connu 1 TAQ: 500 Non OSSEMENTS: Non SARCOPHAGES: Oui URNES: Non CERAMIQUE: Amphores (indéterminées?) NUMISMATIQUE: Non signalées Non OBJETS_ DIV : TOPOGRAPHIE: Site BIBLIOGRAPHIE: LAPART, 1985, p. 79. PETIT, 1985, p. 233-236 ; 1989, n° 75 ; 1990, n° 59. NOM_SITE: Orios Inhumation SITUATION: Le site se trouve au sud-ouest du village de Poupas, entre les lieux-dit Peloch et Malaman, au sommet d'un petit coteau. HISTORIOGRAPHIE: Le site est mentionné sur l'inventaire archéologique de la cité de Lectoure de M. LarrieuDuler, puis prospecté par C. Petit-Aupert lors de sa maîtrise en 1985. DESCR_VESTIGES: PERIODE: Du mobilier archéologique a été repéré sur une surface de 60 x 40 m environ. C. PetitAupert note la présence de sarcophages, de tête sculptée en marbre, de chapiteaux, de céramique commune et d'ossements. CONNEXION_EDIFICES: Aucun édifice connu 1 TAQ: 500 Non OSSEMENTS: Oui SARCOPHAGES: Oui URNES: Non CERAMIQUE: NUMISMATIQUE: Non signalées OBJETS_DIV: Tête sculptée en marbre, chapiteau TOPO GRAPHIE : Site BIBLIOGRAPHIE: LARRIEU-DULER, inventaire 1970, p. 252. PETIT, 1985, p. 423 Nécropole de Sainte-Marie Inhumation SITUATION: La nécropole est établie, à l'intérieur de l'espace auparavant dédié à une fonction d'habitat et de circulation, sur la haute terrasse gauche du gave. Elle semble s'implanter au sud de la cathédrale actuelle. HISTORIOGRAPHIE: Cette nécropole est connue grâce aux interventions archéologiques menées en 1992 dans les jardins de l'ancien évêché, en 1994 aux abords de la cathédrale et en 2004 au sud de celle-ci (RECHIN WOZNY, 2013, fig. 3, n°26, 32, 33). DESCR_VESTIGES: PERIODE: Voir RECHIN & WOZNY, 2013, 255-258 Bas-Empire PRECIS_PERIODE: Premier quart du IVe s./moit VIe s._VIIe s. TPQ: 301 TAQ: 550 CONNEXION_EDIFICES: Agglomération principale CONNEXION_VOIE: SEPULTURES: Oui OSSEMENTS: Oui SARCOPHAGES: Oui Oui URNES: CERAMIQUE: NUMISMATIQUE: Oui (biblio) OBJETS_DIV: TOPOGRAPHIE: Site BIBLIOGRAPHIE: RECHIN, WOZNY, 2013. Les voies principales d'Aquitaine méridionale NOM_VOIE: Chemin du Cami Salié STATUT_ARC: Tronçons alternatif Id: 1 Id: 2 NOM_VOIE: CHEMIN_CAMI_SALIE_incertain STATUT_ARC: Tronçons alternatif Page 1 NOM_VOIE: CHEMIN_TENAREZE STATUT_ARC: Chemin Protohistorique Id: 3 Id: 4 NOM _VOIE : Jonction des voies de Luchon - Garonne STATUT_ARC : BIBLIO: Un axe secondaire faisait correspondre les voies de la vallée de la Pique et celle de la Garonne à des fins probablement économique en raison des nombreuses carrières attestées dans cette zone. Le tracé de cet axe demeure hypothétique, mais devait franchir la Pique à l'ouest, puis longer les communes de Marignac, Géry et Saint-Béat, puis la montagne d'Arri et desservir ainsi les principaux gisements de marbre. R. Sablayrolles rappelle ainsi que "si le transport fluvial, par radeaux sur le Gar , devait évacuer les pièces les plus lourdes pour les destinations les plus lointaines, le transport routier n'était certainement pas totalement négligé, surtout pour les marchés proches de Lugdunum et des grandes villae, par chariot ou même, pour les pièces plus légères comme les placages, par mulets bâtés. L'existence d'une voie antique en rive droite de la Garonne témoigne de cette importance de l'itinéraire terrestre" (SABLAYROLLES, 2010, p. 211). SABLAYROLLES, 2010, p. 211. Page 2 NOM_VOIE: Voie - Burdigala - Burgos - Hypothétique STATUT_ARC: Tronçons non repérés Id: 5 Id: 6 NOM_VOIE: Voi e Aqua e Tarbell icae - Atura STATUT_ARC: Tronçons non repérés Page 3 NOM_VOIE: Voie Aquae Tarbellicae - Atura STATUT_ARC: Id: 7 BIBLIO: Voie urbaine repérée dans le prolongement de la porte Julia (Est) en direction de Airesur-l'Adour. Devait très probablement se prolonger sous la rue des Jardins. MAU RIN, 1990 , Aquitannia, p . 80- 81. NOM_VOIE: Voie Aquae Tarbellicae - Beneharnum STATUT_ARC: Tronçons non repérés Id: 8 Page 4 NOM_VOIE: Voie Aquae Tarbellicae - Lapurdum STATUT_ARC: Id: 9 Voie urbain repérée dans le prolongement de la porte Saint-Vincent (Ouest) en direction de Bayonne - Lapurdum en passant par le faubourg de Saint-Vincent. MAURIN, 1990, Aquitannia, p. 80-81. NOM_VOIE: Voie Astorga - Burdigala Id: STATUT_ARC: FIABILITE: Prospection DESCRIPT: Tronçon Col de Bentarte - Saint-Jean-Pied-de-Port : La voie d'Astorga - Bordeaux a été assez largement étudiée par L. de Buffières et J.-M. Desbordes. Depuis Ronceveaux, les auteurs ont dégagés une série d'hypothèses, parfois vérifiées parfois non, sur le tracé de la via publica. Nous retiendrons ici, le plus plausible et le mieux attesté des trois tracés possibles, puisqu'il est, peut-être plus que les autres bordés de plusieurs sites antiques. Depuis Roncevaux, la voie s'appuyait alors en direction du nord, d'abord sur la ligne de crête axiale ouest-est de la chaîne, gagnant le col de Lepoeder (alt. 1431 m) et amorce en pente douce, une descente par les flancs de l'Astobizkar, et du Txangoamendi, puis, passe aux abords du col de Bentarte où le tracé s'infléchit vers le nord pour emprunter la longue ligne de crête qui descend (en passant par le château Pignon, et le quartier de Hontto) vers le franchissement de la Nive, probablement à Ugange (Saint-Jean-Pied-de-Port). Il s'agit là d'une descente d'environ 20,5 km avec un dénivelé de 1270 mètres. La voie romaine partage de nombreux tronçons en commun avec le chemin de Saint-Jacques-de-Compostelle. 10 Tronçon Col de Bentarte - Artekea : D'après les informations des deux chercheurs, la voie romaine et le chemin de Compostelle se côtoient au lieu-dit Loibeltx, au passage de la frontière internationale, près de la borne 198. A l'aplomb du sommet du Txangoamendi subsiste un segment bien conservé de la voie romaine, long d'environ 190 m, et large d'environ 6 m en moyenne. L'assise de la plateforme terrassée est parfaitement horizontale, tandis que le talus qui la soutient vers l'aval est encore bien visible. La datation de la voie est étayée par la découverte d'un dépôt monétaire au pied du talus de soutènement de la voie. 21 monnaies romaines (particulièrement corrodées) ont été examinées par L. de Buffières et J.-M. Desbordes. Ils les font correspondre à des monnaies datables du dernier quart du Ier siècle av. J.-C. et de la moitié du IIe siècle ap. J.-C. Au-delà, les auteurs signalent qu'une large ravine a emporté ponctuellement la voie. Le tracé se poursuit sans dicontinuité en direction de la frontière sous le couvert forestier. Plusieurs tronçons sont nettement repérables. Depuis le franchissement de la frontière à la borne 198, le chemin de Saint-Jacques-deCompostelle, tangent à la voie romaine, parcours 600 m avant de passer la brèche de Leizar Ateka. L. de Buffières et J.-M. Desbordes notent que la route herbeuse de 6 m de large, "terrassée vers l'aval, et décaissée presque verticalement vers l'amont, monte en pente douce vers le passage de Leizar Ateka ; elle pourrait s'identifier aux vestiges bien conservés de la voie romaine réemployée par le chemin des pèlerins. Cependant, les clichés aériens et au sol révèlent, en -haut du chemin de Compostelle, un tracé fossile dans l'alignement horizontal de la brèche de Leizar Ateka, qui évite le passage sur la corniche de l'Orellako Erreka" (BUFFIERES, DESBORDES, 2006, p. 99). Ce tracé pourrait probablement être celui de la voie romaine, comme semblent le confirmer les prospections menées sur le sol, et ayant livré du mobilier spécifique. Comme le rappellent les auteurs précédents, J. Blot a effectué le recensement de nombreux monuments protohistoriques échelonnés de part et d'autre de l'ancien chemin de crête réemployé par la voie romaine nord-ouest de la brèche de Leizar Ateka, depuis l'ensellement de Jatsagune. Ce chemin était d'ailleurs dominé par la tour d'Urkulu. La limite intercommunale d'Arnéguy et de Saint-Michel est parfaitement alignée sur le tracé de la voie et L. de Buffières et J.-M. Desbordes rappellent d'ailleurs que "quand la route actuelle ne coïncide pas avec le tracé de la voie antique, cette limite communale s'appuie toujours sur les segments subsistants de le voie antique". Au Château Pignon, "un segment bien conservé de la voie est visible en léger contrebas de la route, qui parcours le flanc occidental d'Urdanasburu (Alt. 1233 m), sommet rocheurx sis 800 m au nord de Jatsagune. La route 1400 m au-delà vers le nord-est, contourne le sommet fortifié du Château-Pignon ; des segments de large emprises subsistent aux abords de cette petite forteresse construite par les espagnols au XVIe siècle, et démantelée par le général Ventura Caro en 1793 ; Louis Colas, dans son étude bien documentée sur la voie romaine y situe Summus Pyrenaeus hypothèse aujourd'hui difficilement défendable" (BUFFIERES, DESBORDES, 2006, p. 110-111). "Après un passage resserré entre les murs délimitant les prairies d'Orisson, la route change de versant pour dominer, jusqu'au promontoire d'Artekea- Campaïta, le ravin de Mendiola et le bassin de la Nive de Béhérobie ; la limite intercommunale entre SaintMichel et Uhart-Cize s'y aligne toujours sans discontinuité". La voie passe alors par "le promontoire d'Artekea-Campaita qui débute 600 mètres plus au nord, au dessus de Sallakoborda, sous la forme d'une crête effilée et pentue, longue de 850 m, elle culmine à 832 m (Harri Arteketa), domine et contrôle la route des ports de Cize en contrebas et offre un immense panorama qui s'étend du bassin de Jean-Pied-de-Port aux collines de Larceveau [] le col de Lepoeder et le belvédère d'Arteketa-Campaita peuvent chacun prétendre au qualificatif de "summus"" (BUFFIERES, DESBORDES, 2006, p. 112). Tronçon Artekea - Saint-Jean-Pied-de-Port : Depuis ce promontoire, la voie se dirige ensuite vers Saint-Jean-Pied-de-Port, 631 m plus bas, en passant par le quartier Hontto Plusieurs hypothèses existent pour faire passer la voie, soit directement à Saint-Jean-le-Vieux, soit par Saint-Jean-Pied-de-Port. L. de Buffières, comme L. Colas avant lui envisage le passage de la voie romaine par StJean-Pied-de-Port. Pour se faire, "entre Bidacurutcheta et le col d'Urzoteita, franchi par la route au passage de la crête d'Arbosse, au dessus des fermes du quartier Hontto, la voie doit cependant affronter une pente importante de 19 % sur une longueur de 785 m. La limite intercommunale s'aligne sur des lacets et non pas sur le faîte orographique de la crête qui les supporte, illustrant une nouvelle fois le transfert des anciennes limites administratives sur de nouveaux cheminements. Les courbes du tracé antique permettant de relier le col d'Urzoteita et Bidacurutcheta ont forcéement été plus ouverte et en nombre plus réduit ; la création tardive de lacets supplémentaires a atténué la pente moyenne mais a fermé l'angle des virages [] Ce passage critique représente la difficulté majeure du segment étudié ; cet obstacle était sûrement, pour les voyageurs de l'époque antique, un repère particulièrement marquant". Enfin, "le tracé de la voie entre le col d'Urzoteita et l'ensellement d'Erreculus a pu reprendre celui de la route actuelle, passer près des maisons du quartier Hontto, puis gagner Erreculus. Aux 2/3 de cette descente, un virage très aigu infirme toute possibilité de tracé antique, mais l'observation du cadastre de 1841, révèle la fossilisation d'un virage à courbe ouverte [] Puis la voie devrait rejoindre la route actuelle en passant aux abords de Bideondoa ("près du chemin"), par un cheminement décrit par Clément Urrutibehéty. Vers la maison Etcheverrigaray, la route joue à nouveau et sans discontinuité son rôle de limite entre Uhart-Cize et Saint-Jean-Pied-dePort jusqu'au passage de la Nive à Ugange" (Voire Ste-Eulalie d'Ugange) (BUFFIERES, DESBORDES, 2006, p. 115-116). Tronçon Saint-Jean-Pied-de-Port - Lacarre : En suivant l'hypothèse de L. de Buffières et J.-M. Desbordes, le passage de la Nive de Béhérobie se faisait à gange, puis par la rue Sainte-Eulalie (qui rappellent l'existence de l'église disparue). Cet axe est selon eux "l'exact cheminement de la voie primitive". Vers l'est, la voie se dirige ensuite en direction de Saint-Jean-le-Vieux, et passe "très précisément au point de rencontre des finages de Saint-Jean-Pied-de-Port, Ispoure et Saint-Jean-le-Vieux. Ce trifinium présume l'existence d'un cheminement antérieur au XIIe siècle" (BUFFIERES, DESBORDES, 2006, p. 117-118). Ensuite, la voie suit un court segment de limite intercommunale, et se prolonge par un chemin rural d'une largeur assez inhabituelle de 7,50 à 8 m, et en partie abandonné comme le montre la photographie (BUFFIERES, DESBORDES, 2006, p. 118, fig. 45). La voie continue dans ce prolongement à la ferme Peotenia. Ce chemin, vestige primitif en provenance d'Ugange, et suivi en partie par les pèlerins de Compostelle, figure sur la carte de Cassini (1770), où il contourne alors Saint-Jean-leVieux, par le nord pour gagner Aphat-Ospital.
48,735
12/tel.archives-ouvertes.fr-tel-00384737-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,108
9,920
Jacquemin (1982), la construction de groupes permet d'acquérir un véritable pouvoir de marché et c'est la recherche de ce pouvoir de marché qui explique que les groupes soient la forme d'organisations prédominantes dans de nombreuses industries françaises. Ces réflexions sur le caractère monopolistique du capitalisme ne sont pas neuves. Déjà en 1910, l'économiste allemand R. Hilferding prédit que le processus concurrentiel entre les entreprises, et les capitaux qu'il nécessite, sera à l'origine d'un phénomène de concentration accrue des capitaux et la création de monopoles ou de cartels dans l'industrie. Plus tard, F. Perroux (1969) indique que « le capitalisme contemporain () est le théâtre d'un groupement énergique et multiforme des entreprises (cartel, trust, groupe) » (p.28). Dans son oeuvre monumentale, F. Braudel insiste sur le fait que le capitalisme crée et exploite des situations de monopoles, mais souligne aussi que les monopoles ont toujours existé. « L'organisation, comme on le dit aujourd'hui, continue à tourner le marché. Mais on a tort de considérer que c'est là un fait vraiment nouveau » (Braudel, 1985, p.115). Le caractère monopolistique du capitalisme est donc historique. Mais plus qu'historique, il est aussi ontologique. Pour F. Braudel, le capitalisme est, par définition, une zone de contre-marché où la concurrence ne constitue pas la norme. Les ressorts de la dynamique capitaliste se nourrissent donc d'un phénomène apparemment contradictoire : en voulant affirmer leur puissance dans un environnement très compétitif, les acteurs économiques se soustraient progressivement à une concurrence, dont ils ont malgré tout besoin, pour construire des empires capitalistiques. 4.2 Le rôle stabilisateur des détenteurs du patrimoine Les observations faites sur le capitalisme financier trouvent un autre écho dans les groupes : l'actionnaire, comme figure tendanciellement dominante du système, est là encore 15 D. Galliano aborde aussi la question de l'efficience des structures en groupe. La question est particulièrement difficile du fait des multiples facettes du concept. Notons qu'un pan de la littérature, asiatique notamment, s'est interrogé sur le rôle joué par les groupes dans le développement de pays. Ce sont les fameux Keiretsu au Japon ou Chaebol en Corée. aux premières places, mais il est ici une figure de stabilité, contrairement à une vision traditionnelle de l'actionnaire focalisé sur des échéances de court terme. L'opportunisme que développe la structure en groupe est mis en oeuvre par et pour la maison mère. La relation intra groupe est donc largement asymétrique. La faculté de paramétrage du système est entre les mains de la société tête de groupe qui est aussi actionnaire de ses filiales. Ce sont bien les sociétés mères qui peuvent réguler la relation dans un sens qui leur paraît favorable. Le lien intra groupe n'exprime alors pas seulement le droit de décider, il exprime aussi le droit de régler le droit de commander. Le groupe a ainsi la liberté de choix sur le droit qu'il s'octroie de commander. Et seule la maison mère tire profit de cette caractéristique. Elle apparaît toute puissante en ayant une réelle capacité d'influence, voire de gestion, dans la conduite des affaires des filiales et en sachant s'en retirer en fonction de l'évolution de sa stratégie. Cette capacité repose en partie sur le fait que les dirigeants de la maison mère sont des professionnels de la gestion et ont donc les moyens, non seulement de discipliner les responsables de filiales, mais aussi de contrôler et d'expertiser leur gestion de l'unité. Nous retrouvons, dans les groupes, des actionnaires « maîtres chez eux ». Mais en organisant une forme de fluidité organisationnelle, la forme en groupe est dépositaire d'une forme nouvelle de stabilité (Delarre, 2006) : si les entreprises prises isolément n'incarnent plus des structures stables, le groupe peut s'y substituer. Ainsi, contrairement à la vision d'un actionnaire porteur d'instabilité dans le système, car focalisé sur la rentabilité à court terme des actifs boursiers les détenteurs du patrimoine, dans les groupes, ont un rôle stabilisateur. L'avènement du capitalisme financier s'accompagne donc d'un phénomène d'institutionnalisation des organisations qui en sont au coeur. Ce nouveau capitalisme a besoin d'organisations pérennes pour fonctionner correctement. Les groupes sont, à ce titre, exemplaires. Ils développent des capacités de flexibilité afin de rester proches des transformations des marchés, mais ils sont des entités durables. Les entreprises passent mais le groupe reste L'émergence et la diffusion du capitalisme financier ne peuvent se faire sans le soutien de structures entrepreneuriales et sociales stables. 4.3 Le groupe : une structure « caméléon » Nous pouvons alors avancer une dernière proposition qui consiste à dire que les groupes sont en fait à l'image du système capitaliste : ce sont des structures qui développent des capacités de plasticité organisationnelle leur permettant de concilier des atouts de stabilité et de fluidité, a priori contradictoires. Mais cette qualité de la structure en groupe n'est peut être que le signe d'un caractère plus général du capitalisme dans son ensemble. C'est un des arguments qui traverse l'oeuvre « Civilisation matérielle, Economie et Capitalisme » (1979) de F. Braudel. Il explique qu'historiquement le capitalisme est le règne des grands marchands qui peuvent changer d'activité au gré des opportunités. Le capitalisme est décrit comme l'étage d'une certaine liberté – l'édifice de la société comprenant trois étages : la vie matérielle, la vie économique correspondant au marché et le capitalisme. « Il (le capitalisme) surveille sans fin la conjoncture pour y intervenir selon certaines directions préférentielles – ce qui revient à dire qu'il sait et qu'il peut choisir le domaine de son action. Or, plus que le choix lui-même – qui ne cesse de varier de conjoncture en conjoncture, de siècle en siècle – c'est le fait même d'avoir les moyens - 32 - de créer une stratégie et les moyens d'en changer qui définit la supériorité capitaliste » (1979, 2, p.353). C'est donc la nature adaptative et opportuniste du capitalisme qui lui permet de durer en utilisant à son avantage les circonstances de la conjoncture. Le système possède une capacité d'adaptation qui lui permet de se maintenir. L'historien réfute ainsi l'idée d'une évolution de la nature du capitalisme. « Au travers cette grande mutation (la révolution industrielle), le capitalisme est resté, pour l'essentiel semblable à lui-même. La règle n'est-elle pas, pour lui et par nature, de se maintenir par le changement même? » (Braudel, 3, 1979, p.538). La caractéristique du capitalisme, qui est aussi sa force, est de pouvoir passer d'une forme d'action à l'autre. Les groupes nous semblent porteurs de cette caractéristique fondamentale du capitalisme et c'est à ce titre qu'ils paraissent une forme aboutie du système dans son fonctionnement actuel. « Le capitalisme est caméléon par structure ; les caméléons changent de couleur, mais ce sont toujours des caméléons » (Journées Fernand Braudel, 1985, p.145). 5. PLAN DE LA THESE Cette thèse comporte six chapitres. Le premier chapitre est essentiellement théorique. Il est consacré à l'explicitation du « problème » que soulève la structure en groupe, à savoir la disjonction entre propriété des actifs et frontières juridiques. Nous verrons que si la notion de contrôle est bien au coeur du concept de groupe, elle est pourtant difficile à manier du fait de son caractère binaire. Nous lui préférerons la notion de gouvernement d'entreprise, et de pouvoir qui lui est associé, car elle permet de comprendre de quelle façon les acteurs agissent concrètement dans la structure. Dans le deuxième chapitre, nous présenterons des groupes de manière concrète. Nous reviendrons sur la démarche empirique que nous avons mise en oeuvre. Nous commencerons par donner quelques repères dans l'univers varié des groupes. Nous ferons ensuite connaissance avec les huit groupes qui ont constitué notre terrain. Enfin, nous expliciterons notre méthodologie d'enquête. - 33 - Le troisième chapitre sera l'occasion de faire une « plongée » significative au coeur des groupes. Nous avons, en effet, voulu reconstituer les histoires de quelques-uns des groupes étudiés. Cette reconstitution se fera de façon assez ouverte mais nous apercevrons malgré tout au fil de ces histoires les thèmes qui serviront de guides à cette étude. Les trois chapitres suivants constituent la colonne vertébrale de notre travail : ils sont les trois points de notre démonstration. Ils nous permettront de montrer la complexité de la structure en groupe et son caractère opportuniste. On observe au sein des groupes des dilemmes de gestion traduisant un opportunisme en actes et concernant différents domaines : les relations économiques intragroupe, la discipline des dirigeants de filiale, la responsabilité des sociétés mères, la question des conflits entre société dominante et filiale. Ces dilemmes « touchent » tous les groupes, quelques soient leur taille, leur secteur, leur âge. Ils traduisent des tensions et des alternatives devant être tranchées: marché ou hiérarchie, subordination ou autonomie, pouvoir ou responsabilité, alignement des intérêts ou conflits. Tous expriment en fait, à chaque fois mais sous différents angles un choix : apparaître comme un ensemble uni ou, au contraire éclaté ; les groupes devant choisir la branche de l'alternative qui leur paraît, à un moment donné, la plus favorable. Le chapitre quatre leur sera consacré. L'opportunisme du groupe est rendu possible par une structure autorisant une pratique souple de l'exercice du pouvoir. Le chapitre cinq est dédié à la description de cette structure et de ses possibilités. En effet, la domination capitalistique de la maison mère lui permet de conjuguer deux rôles a priori nettement séparés : celui d'actionnaire et i de manager. Cette domination capitalistique lui permet de déployer au maximum la palette de ses interventions : elle peut jouir de son rôle d'actionnaire et faire prévaloir un droit de gestion direct dans les affaires de ses filiales. Les sociétés mères mettent ainsi en oeuvre l'ensemble des prérogatives des rôles attachés à l'actionnaire et au manager. Ils jouent, au gré des circonstances, sur des registres d'action variés et organisent ainsi un « pouvoir hybride ». Enrichie du parcours qui précède, nous montrerons que l'émergence et le développement de la forme en groupe répondent à un besoin de flexibilité. Le chapitre six reviendra donc sur la question de la raison d'être de la forme en groupe. GROUPES, PROPRIETE, CONTROLE : PRESENTATION D'UN PROBLEME Les liens financiers entre maison mère et filiale, et la relation de propriété qui en découle, sont l'une des sources de la constitution des groupes. Ces liens de propriété rendent possible et légitiment l'exercice d'un contrôle de la société tête de groupe sur ses filiales. Mais ce contrôle se trouve limité par l'indépendance juridique des sociétés filialisées. C'est toute la particularité des groupes de sociétés : ils lient les questions de propriété et de contrôle tout en les déconnectant du principe juridique d'autonomie de la personne morale. C'est précisément cette particularité qui constitue leur atout mais qui est aussi à la source du problème analytique qu'ils posent aux chercheurs en sciences sociales. Il devient alors absolument nécessaire d'éclaircir la notion de contrôle. Que signifie « contrôler » une société dans le cadre d'un groupe? Quelles sont la nature et l'étendue de ce contrôle? Les réponses apportées à ces questions sont essentielles car ce sont d'elles dont dépend la définition même du groupe. L'objectif de ce chapitre est donc de disséquer le concept de groupe afin de mettre en évidence les problèmes et contradictions qu'il soulève. Dans la première partie, nous verrons que les approches juridique et économique placent la notion de contrôle au coeur de la définition des groupes16. Nous montrerons cependant que ces approches ne permettent pas de lever le flou qui existe autour de la notion de groupe car les principes d'indépendance juridique se confrontent à l'existence bien réelle de liens capitalistiques entre entreprises sans trouver d'issue satisfaisante. La seconde partie sera consacrée à la notion de gouvernement d'entreprise comme outil théorique permettant d'appréhender le phénomène des groupes. 'est la proposition principale de ce chapitre. Nous 16 Une étude sociologique des groupes de sociétés nous amène à nous porter sur les lieux dans lesquels l'objet est en débat, y compris en économie et en droit. Nous mobiliserons ces deux disciplines, non pas parce qu'elles sont « par nature » celles qui en traitent « légitimement », mais parce qu'il nous faut entendre et comprendre ce qu'elles ont à dire des groupes pour avancer dans notre élaboration problématique. - 36 - montrerons que la notion de gouvernement d'entreprise fournit une piste d'investigation féconde pour lever les indéterminations qui entourent la relation de groupe. Le déplacement vers la notion de pouvoir que suggère le concept de gouvernement d'entreprise est une façon de sortir de l'impasse dans laquelle nous enferme celle de contrôle. Car elle permet de penser les individus, et les structures dans lesquelles ils sont insérés, comme des acteurs, aux intérêts quelquefois divergeant, développant un jeu autour de leur rôle. La relation de groupe sera ainsi appréhendée à travers le cadre spécifique d'un face à face entre actionnaire et dirigeant. 1. LE CONTROLE, PRINCIPE STRUCTURANT DU GROUPE Il existe un large consensus sur le fait qu'un groupe de sociétés est constitué par un ensemble de liens financiers. Mais une fois cette première définition acceptée, tout le problème est de comprendre ce que permet ce lien financier. Car le rapport de propriété est dual (Morin, 1984) : il est un rapport de détention et un rapport de pouvoir. Les conséquences d'une telle dualité, voire ambigüité, sont essentielles car le groupe est soit appréhendé comme un ensemble unifié soit comme un ensemble de sociétés autonomes. Et le problème se complexifie encore si nous considérons que le lien de propriété n'est pas l'unique source de contrôle d'une société. Nous irons ainsi, au fil de cette première partie, d'une définition restrictive à une définition extensive du groupe de sociétés. 1.1 Le groupe comme système de liaisons financières Une société a la capacité d'être propriétaire : elle peut notamment être propriétaire d'actions dans d'autres sociétés (Robé, 1999). Le groupe se définit en premier lieu par un système de liaisons financières (Batsch, 1993 ; Galliano, 1995), de sorte que si une société détient une part suffisante du capital d'autres sociétés, la première est appelée maison mère, les autres sont des filiales. Les liaisons financières sont le critère premier d'appartenance au groupe. Dans une première approche, le groupe peut donc être défini comme un ensemble de sociétés liées par des relations capitalistiques. L'existence de ce lien financier entre entités a une conséquence importante : les relations entre maison mère et filiales relèvent du droit des sociétés. Cependant, en droit des sociétés français, le groupe n'a pas, à proprement parler, de réalité juridique. La notion de groupe - 37 - n'existe pas. Chaque composante du groupe est juridiquement indépendante et jouit de la personnalité morale. Le groupe n'est pas un sujet de droit (Nurit-Pontier, 1998). Le droit considère que la société filiale gère son patrimoine, assure ses risques La situation française est assez banale car le droit des groupes n'est développé que dans très peu de pays. Citons deux exceptions : l'Allemagne avec la loi du 6 septembre 1965 édictant un Konzernrecht et la loi brésilienne du 15 décembre 1976. Ajoutons que les groupes de sociétés ne sont pas non plus un sujet de droit international, ils « constituent certes un phénomène international par excellence et pourtant il faut bien admettre que pour l'instant il n'y a pas de problème législatif du groupe en droit international privé » (étude du CRE , 1975, p.6). L'absence de statut juridique d'ensemble des groupes rend leur étude délicate. Délicate au point que cette architecture économique puisse être parfaitement invisible si l'on s'en tient aux frontières légales des entreprises! Mais dès le début des années 70, les statisticiens et économistes considèrent que l'absence de données sur les groupes ne permet plus une analyse satisfaisante de l'appareil productif et de son évolution17. Les premiers travaux sur les groupes sont publiés en 1980 avec les enquêtes « Liaisons financières » (Chabanas, 2002). L'enquête Lifi est une enquête statistique obligatoire auprès des entreprises privées18. 17 L'histoire du traitement statistique des firmes est intimement liée à l'évolution du droit des sociétés car la statistique utilise les critères juridiques pour effectuer son travail de dénombrement. 18 Les questionnaires de l'enquête se décomposent en 3 parties : identification de l'entreprise/ l'actionnariat / la décomposition du portefeuille titres. L'objectif de l'enquête est d'identifier les têtes de groupe parmi l'ensemble des entreprises, de leur associer les entreprises contrôlées à plus de 50% et celles sur lesquelles elles ont une influence et enfin situer les filiales dans la structure en groupe. - 38 - Si un groupe existe dès lors que la maison mère détient une part suffisante du capital de sa filiale, quelle est cette part suffisante? C'est tout le problème des seuils et des frontières des groupes. La définition donnée par le droit des affaires dans la loi n°66-537 du 24 juillet 1966 est très communément utilisée. Elle considère la filiale comme une entreprise dont plus de 50% du capital est détenu par une autre entreprise19. L'article 354 indique que lorsqu'une société possède plus de la moitié du capital d'une autre société, la seconde est considérée comme filiale de la première. Cette même loi différencie la filiale de la simple participation, définie par un seuil de détention entre 10 et 50%. L'article 355 indique que lorsqu'une société possède dans une autre société une fraction du capital comprise entre 10 et 50 %, la première est considérée comme ayant une participation dans la seconde. Pour l'INSEE, l'ensemble des entreprises détenues directement ou indirectement à plus de 50% par une société mère représente le contour restreint du groupe, son « noyau dur ». Elle pose ainsi une première frontière au groupe. Il est cependant possible de contrôler une société à des seuils inférieurs à ceux cités. Le contrôle découle alors soit de pratiques perverties de la propriété juridique tel le vote en blanc, soit de montages financiers et organisationnels. C'est par exemple le cas pour les filiales en cascade. Lorsqu'une société mère détient directement une filiale, qui à son tour détient des sous-filiales, la tête de groupe peut avoir une influence dans ces sous-filiales sans détenir la majorité des actions. Elle réalise ainsi une économie importante en capital. La structure en groupe permet de contrôler des capitaux sans rapport avec la responsabilité patrimoniale. Une fraction relativement faible du capital est donc suffisante pour avoir une influence décisive dans une entreprise. La législation française encadre et limite, en partie, ces pratiques en protégeant les intérêts des actionnaires minoritaires. Ces actionnaires bénéficient d'une « minorité de blocage » s'ils détiennent plus du tiers des voix. Si cette minorité de blocage ne donne pas nécessairement une capacité de proposition ou de décision, elle procure néanmoins une « capacité à empêcher ». Dans l'identification et le choix des groupes étudiés dans le cadre de notre étude empirique, nous sommes partie de ce critère de définition simple mais facilement opérationnel. - 39 - C'est au regard de ces observations que l'INSEE définit un contour élargi des groupes qui est constitué de l'ensemble de toutes les entreprises dépendant du groupe, quel que soit leur degré de dépendance vis-à-vis du centre de décision. Au niveau statistique, le contour élargi des groupes est formé de l'ensemble des entreprises appartenant au contour élargi d'au moins un groupe, sans pouvoir associer une entreprise à un groupe plutôt qu'à un autre. Mais toutes ces définitions de la filiale renvoient à la fraction du capital détenue par la maison mère, sans préciser la répartition des droits de vote. Or c'est précisément cette répartition qui confère à la maison mère le contrôle de la société. La loi de 1966 complète sa définition en explicitant les conditions de contrôle d'une société. L'article 355-1 indique qu'une société en contrôle une autre : - lorsqu'elle détient directement ou indirectement une fraction du capital lui conférant la majorité des droits de vote dans les assemblées générales de cette société ; - lorsqu'elle dispose seule de la majorité des droits de vote dans cette société en vertu d'un accord conclu avec d'autres associés ou actionnaires et qui n'est pas contraire à l'intérêt de la société ; - lorsqu'elle détermine, en fait, par les droits de vote dont elle dispose, les décisions dans les assemblées générales de cette société. Elle est présumée exercer ce contrôle lorsqu'elle dispose, directement ou indirectement, d'une fraction des droits de vote supérieure à 40% et qu'aucun autre associé actionnaire ne détient directement ou indirectement une fraction supérieure à la sienne. La majorité des voix est ainsi à distinguer de la possession majoritaire du capital. Le contrôle découle de la répartition des droits de vote et non des parts en capital dans la mesure où ils peuvent être dissociés par l'attribution de droits de vote double, ou par l'émission de titres sans droit de vote (certificat d'investissement), par exemple. 1.2 La dualité du rapport de propriété Dans les groupes, la notion de propriété est donc intimement liée à celle du contrôle. Détenir une part du capital d'une entreprise permet à son détenteur d'exercer un contrôle. Mais que permet ce contrôle? Quelle est l'étendue du pouvoir d'une maison mère sur ses filiales? Quelles sont aussi les limites de ce pouvoir? - 40 - Reprenons le principe de dualité du rapport de propriété développé par F. Morin (1984) et tentons d'en tirer les conséquences. Si la propriété est appréhendée comme un rapport de pouvoir, on peut considérer le groupe comme une seule et même firme. Malgré leur autonomie juridique, les entités dépendent d'un seul et même pouvoir décisionnel : celui de leur maison mère. La détention engendre alors un droit réel : l'actionnaire se considère comme propriétaire de l'actif de la société et il peut revendiquer un droit de gestion dans la société. Si, à l'inverse, on considère que la propriété est un rapport de détention, le groupe est avant tout une architecture constituée d'un ensemble de sociétés. L'autonomie juridique des filiales est alors une borne face aux possibilités de contrôle de la maison mère. La détention est l'objet d'un droit personnel, le droit de propriété, qui est un droit de créance. Et dans ce cas, ce n'est qu'une liaison d'endettement qui lie maison mère et filiale. Posé en ces termes, nous pourrions dire que le débat oppose juristes et économistes : les premiers étant respectueux de la personnalité juridique des sociétés, contrairement aux seconds dont l'analyse est centrée sur la relation économique. Soulignons que ce sont autour de ces perspectives théoriques différentes que s'est construite la confusion sémantique concernant la dénomination même des groupes : doit-on parler de groupes de sociétés ou de groupes d'entreprises? Le groupe au-delà des sociétés C'est en considérant le rapport de détention comme un rapport de pouvoir que l'actionnaire peut revendiquer un droit de gestion dans la société dont il détient les actifs. Dans les groupes, cela signifie que la maison mère agit en faveur de la création d'une unité organisationnelle et décisionnelle avec ses filiales. Le rapport de pouvoir qu'exerce la maison mère sur ses filiales repose sur deux mécanismes : la subordination des dirigeants de filiales par la possibilité qu'a la société tête de groupe de les nommer et de les révoquer. - 41 - C'est cette possibilité, qu'a la société tête de groupe de nommer et de révoquer les dirigeants de filiales, qui lui permet de se positionner comme le centre du pouvoir stratégique (Batsch, 1993). Les dirigeants de filiales se doivent, en effet, de respecter le projet stratégique d'ensemble élaboré par la société tête de groupe, au risque d'être révoqués. C'est à la maison mère que reviennent alors des choix comme la fusion ou la cession de sociétés membres, l'allocation des ressources nécessaires aux unités La société tête de groupe construit et fait prévaloir une logique d'ensemble qui subsume les logiques des différentes parties constitutives. Elle contribue à créer « un intérêt de groupe » (Jacquemin, 1989), un objectif commun aux membres. Le groupe a ainsi une finalité, un dessein commun. Dans cette perspective, le groupe forme un ensemble unifié au-delà des unités qui le composent. L'unité organisationnelle du groupe est permise par le pouvoir de la société tête, pouvoir fondé sur la propriété juridique. L'appropriation économique est alors un effet de structure de la propriété juridique (Morin, 1984). Mais ce rapport de pouvoir tend nécessairement à « gommer » la personnalité juridique des sociétés et réduit leur autonomie patrimoniale. Il devient alors possible de préciser un peu plus la définition du groupe. En 1987, le Laboratoire toulousain d'Etudes et de Recherche sur l'Economie, les Politiques et les Systèmes Sociaux (ancien LEREP) propose d'appréhender le groupe comme « un ensemble constitué par des sociétés qui dépendent financièrement et économiquement d'un centre qui assure la direction et le contrôle des sociétés dépendantes » (cité par Batsch, 1993, p.43). Malgré l'éclatement de son support sociétaire, le groupe organise donc un système hiérarchique (Galliano, 1995), au sens williamsonnien du terme20. Le droit communautaire rejoint cette proposition lorsqu'il indique que le groupe, par application des articles 85 et 86 du Traité de Rome, est perçu comme une entité économique unique réunissant des sociétés indépendantes. L'unité se traduit par des intérêts communs entre sociétés du groupe. Les personnalités sont ainsi fondues dans une seule et même partie. Ces définitions ont le point commun de considérer le groupe comme le sujet de droit réel. L'autonomie juridique des filiales n'est qu'un écran qui masque la cohérence d'un ensemble organisé (Pariente, 1993). - 42 - déjà noté, tout d'abord, qu'une faible participation dans une entreprise permet d'avoir une influence dans la vie de cette entreprise. La relation de pouvoir peut donc « se passer » de la relation de propriété. Ensuite, pourquoi systématiser le lien entre propriété et pouvoir? Ne faut-il pas réintroduire dans cette relation les acteurs et leur volonté? Autrement dit, et nous l'avons également déjà relevé, les dirigeants d'une maison mère peuvent parfaitement décider, au nom d'une stratégie, de ne pas « activer » leurs prérogatives. Et dans ce cas, la relation de pouvoir reste une potentialité à exploiter. Enfin, comment affirmer que la propriété donne systématiquement un pouvoir économique sur la société liée à la vue de la très grande diversité des pratiques des groupes? Le phénomène des groupes est très hétérogène, les groupes ne présentent pas tous la même organisation et le même fonctionnement. « L'extrême variété des situations concernées a souvent été avancée pour répudier toute tentative de définition légale du groupe » (Supiot, 1985, p.637). Il existe donc une première indétermination de la frontière qui sépare les liens financiers de véritables relations de groupe. Rien ne permet d'établir une correspondance automatique, ou trop directe, entre relations capitalistiques et formation d'un groupe. Le groupe comme ensemble de sociétés Les juristes sont très embarrassés vis-à-vis de l'appréhension unifiée du groupe, ils sont comme pris de vertige. « La question de droit posée est toujours la même : doit-on affirmer ou nier l'indépendance juridique des sociétés membres d'un groupe? » (Hannoun, 1991, p.6) Impossible de nier l'existence des groupes et les relations de domination qui existent entre sociétés mais comment produire une analyse juridique qui respecte la personnalité morale des sociétés? La notion de contrôle est bien à la base du droit des groupes mais ce même droit réaffirme sans cesse l'autonomie juridique de la personne morale. « Le groupe de sociétés est traditionnellement appréhendé par le droit français comme une somme d'entités indépendantes quoique réunies entre elles par des liens de participation étroits. Si le groupe est un espace dans la plupart des cas unifié du point de vue du management, le groupe demeure aux yeux du juriste une somme d'entités devant fonctionner comme si elles étaient indépendantes » (Couret, 2002, p. 388). Le groupe serait donc avant tout la somme de ces parties, et non une entité à part entière. Deux arguments justifient cette position. - 43 - D'une part, la définition du groupe en tant que firme unifiée provient d'une confusion entre la propriété de l'actif physique utilisé dans l'entreprise et la propriété portant sur les droits dérivés de l'usage des biens dans l'entreprise, sous la forme essentiellement d'un droit à une partie du résultat dégagé et d'une partie du pouvoir de décision concernant l'usage de ces biens. La personnalité morale de la filiale s'interpose, en effet, entre les actifs productifs et ce dont les actionnaires sont propriétaires – les actions. La personnalité juridique des actionnaires s'efface derrière la personnalité morale sociétaire. Les actifs productifs sont la propriété de personnes morales ; les actionnaires ne sont propriétaires que des actions représentatives du capital des sociétés. Les actionnaires ne sont pas propriétaires de l'actif social, ils possèdent simplement des instruments juridiques leur conférant des droits sociaux (Robé, 1999). Ces instruments les « isolent » des actifs physiques mais leur donnent des prérogatives d'ordre pécuniaire et des prérogatives de participation à la vie sociale (Del Cont, 1997). D'autre part, cette appréhension des groupes comme ensembles unifiés est source de déformation du droit des sociétés. En effet, si la société contrôlée fonctionne sous l'autorité de la maison mère, l'organe contrôleur n'est plus dans la société elle-même : c'est une entreprise juridique étrangère, ce qui est contradictoire avec le droit commun des sociétés. Pourtant, le droit n'ignore pas que les ensembles productifs contemporains ne peuvent plus se comprendre à partir des seules frontières juridiques. Rester sur une conception de la firme comme personne morale autonome fait courir le risque de ne pas comprendre les formes modernes d'organisations Les répon ses fragmentaires du droit positif « Tantôt il (le droit) reconnaît le groupe, tantôt il le nie en affirmant l'indépendance juridique des sociétés qui le composent » (Hannoun, 1991, p.6). Ainsi, malgré ce qui semble être une focalisation autour de l'idée de firme comme unité autonome, le droit positif reconnaît de façon fragmentaire les groupes à travers une série de règles spéciales issues du droit comptable, du droit fiscal ou encore du droit du travail. Pour ces différents domaines du droit, la reconnaissance passe systématiquement par une définition du contrôle que la société tête de groupe exerce sur la société dominée. - 44 - Le problème de la consolidation des comptes des groupes est au coeur des préoccupations du droit comptable. L'article 357-1, loi du 24 juillet 1966, issu de la loi du 3 janvier 1985, définit pour cela deux niveaux de contrôle – le contrôle exclusif et le contrôle conjoint. Le contrôle exclusif par une société résulte : - soit de la détention directe ou indirecte de la majorité des droits de vote dans une autre entreprise ; - soit de la désignation, pendant deux exercices successifs, de la majorité des membres des organes d'administration, de direction ou de surveillance d'une autre entreprise ; la société consolidante est présumée avoir effectué cette désignation lorsqu'elle a disposé au cours de cette période, directement ou indirectement, d'une fraction supérieure à quarante pour cent des droits de vote, et qu'aucun autre associé ou actionnaire ne détient, directement ou indirectement, une fraction supérieure à la sienne ; - soit du droit d'exercer une influence dominante sur une entreprise en vertu d'un contrat ou de clauses statutaires, lorsque le droit applicable le permet et que la société dominante est actionnaire associé à cette entreprise. Le contrôle conjoint est le partage du contrôle d'une entreprise exploitée en commun par un nombre limité d'associés ou d'actionnaires, de sorte que les décisions résultent de leur accord. Ces deux niveaux de contrôle correspondent à deux méthodes d'intégration des filiales : la méthode globale et la méthode proportionnelle. En droit fiscal, la loi de finances de 1987, modifiée par celle de 1992, met en place un régime fiscal des groupes en donnant la possibilité à la maison mère d'être seule redevable des impôts du groupe. C'est une autre définition du groupe qui est retenu, avec un seuil de détention des filiales fixé à 95%. L'article 68 de la loi de finance du 30 décembre 1987 indique qu'une société dont le capital n'est pas détenu à 95% au moins directement ou indirectement par une autre personne, peut se constituer seule redevable de l'impôt sur les sociétés dû sur l'ensemble des résultats du groupe formé par elle-même et les sociétés dont elle détient 95% au moins du capital, de manière continue au cours de l'exercice directement ou indirectement par l'intermédiaire des sociétés du groupe. - 45 - En matière de droit du travail, la préoccupation du juge et du législateur a été de reconstituer le paradigme de l'entreprise. Pour ce faire, la notion de comité de groupe a été développée avec l'objectif d'organiser des liaisons entre les institutions représentatives du personnel des différentes entreprises du groupe21. C'est l'article 439-1 du Code du travail qui évoque le comité de groupe : « un comité de groupe est constitué au sein du groupe formé par une société appelée, pour application du présent chapitre, société dominante, les filiales de celle-ci, au sens de l'article 354 de la loi du 24 juillet 1966 modifiée, et les sociétés dont la société dominante détient directement ou indirectement plus de la moitié du capital, dont le siège social est situé sur le territoire français. » L'article 434-1 du Code du travail élargit la définition précédente en légalisant la notion jurisprudentielle d'unité économique et sociale. « Lorsqu'une unité économique et sociale () est reconnue par convention ou par décision de justice entre plusieurs entreprises juridiquement distinctes, la mise en place d'un comité d'entreprise commun est obligatoire ». Les domaines du droit proposent donc des définitions qui leur sont propres, ce qui contribue à créer une première indétermination : le groupe n'a pas la même signification selon qu'il s'agit d'appliquer une norme fiscale, une norme comptable De plus, ces différentes notions de contrôle et de groupe ne sont que des notions à caractère fonctionnel (Hannoun, 1991) ne remettant pas profondément en cause l'indépendance juridique des entreprises filialisées. Il ressort de ces approches une seconde indétermination. Les frontières juridiques ne nous disent rien du phénomène des groupes et lorsque le droit s'y penche, le groupe aît éclaté. On observe donc de nombreuses incertitudes sur ce qui « fait » le groupe. 1.3 Au-delà de la propriété : les liens de coopération dans les grandes firmes contemporaines Jusqu'ici, nous avons considéré les groupes à partir de la notion de contrôle, le contrôle procédant de la propriété. Mais la question peut encore très sérieusement se compliquer si nous élargissons la perspective pour évoquer le cas des grands ensembles productifs dont les frontières dépassent celles tracées par les liaisons financières. Aussi pourrait-on envisager les 21 La seconde grande préoccupation du droit du travail est le statut du dirigeant, nous y reviendrons dans le chapitre 3. - 46 - liens de dépendances commerciaux, productifs, formels ou informels Cette proposition repose sur une observation qui est celle de la généralisation du concept de groupe pour caractériser les grands ensembles productifs actuels, ces grands ensembles se qualifiant euxmêmes de groupes ou les médias leur donnant ce qualificatif. « On le constate à l'examen de la presse spécialisée où désormais les termes de grande firme et de groupe sont devenus d'un usage indifférencié » (Montmorillon, 1986, p.2). Ce qualificatif de groupe n'est pas toujours donné à bon escient, au regard des définitions citées plus haut, et ajoute encore à la confusion, mais force est de reconnaître son succès. L'utilisation très étendue du terme de groupe peut s'expliquer par l'absence d'une définition claire et précise. Elle s'explique aussi par l'idée de puissance économique auquel le groupe renvoie, c'est alors un moyen d'utiliser l'effet flatteur de la taille. Son succès peut enfin être interprété comme une « crise » du modèle classique de l'entreprise. Avec ce troisième point, nous abordons donc le dernier « étage » de notre définition des groupes : celui qui nous emmène vers une acceptation large de notre objet. Nous avons sélectionné deux termes, dans la littérature, qui renvoient à ces ensembles productifs : le réseau et le business group (le groupe d'affaire). Le sens de ces termes est assez proche malgré des sources théoriques qui diffèrent. Alors que le réseau est envisagé comme le dernier stade de l'évolution des firmes, le terme de business groups renvoie à la sociologie économique et aux analyses de réseaux sociaux. La firme réseau Des firmes indépendantes en situation d'échange : voilà la première caractéristique de l'organisation en réseau. Les échanges entre entreprises se font alors sur la base de relations contractuelles et non d'un lien de propriété. La firme réseau, comme mode de coordination des activités économiques, est souvent analysée comme le successeur de la grande entreprise intégrée taylorienne (Montmorillon, 1989). Les relations partenariales sont le trait saillant de ce phénomène22. Pour définir l'entreprise réseau, nous nous appuyons sur la sélection de deux ouvrages : celui de F. Mariotti (2003) et celui P. Veltz (2000). Dans une première approche, le réseau est défini comme un « ensemble équipé et organisé d'entreprises indépendantes concourant à la 22 Pour l'analyse des relations partenariales, nous renvoyons notamment aux études de J.-P. Neuville (1997, 1998a, 1998b). - 47 - production d'un bien ou d'un service » (Mariotti, 2003, p.8). La constitution de ces morphologies productives résulte soit d'un processus de décomposition de grandes structures, soit d'un processus d'interconnexion entre firmes de taille modeste. Les firmes réseau peuvent cependant revêtir des formes variées. F. Mariotti évoque quatre formes différentes de firmes réseau. On trouve, tout d'abord, les réseaux constitués d'anciennes entreprises intégrées mettant en place des politiques d'externalisation. On trouve aussi les réseaux de PME/ PMI, associant des entreprises ancrées dans un territoire et procédant à des échanges verticaux et horizontaux. Les alliances stratégiques entre grandes firmes peuvent être considérées comme des réseaux. On trouve enfin les « firmes creuses », qui se sont développées dès leur origine sur un schéma réticulaire en faisant appel à des entreprises extérieures. Les firmes creuses coordonnent depuis l'aval la chaîne de production. Malgré la variété des formes de réseaux, quelques traits caractéristiques communs peuvent être mis en évidence. Ces organisations sont décentralisées et sont composées de centres de production et/ ou de décision relativement autonomes. On observe le caractère généralement plurifonctionnel des unités mises en réseau. Les unités sont évaluées à travers leur capacité à obtenir des résultats par rapport à des objectifs. L'efficacité de l'ensemble du réseau est intimement liée aux interfaces de l'organisation, c'est-à-dire aux relations entre ses différentes unités. Les business groups Dans une perspective différente, le réseau peut être considéré comme une structure de relations. L'étude des réseaux a été au centre du renouveau de la nouvelle sociologie économique. Cette approche privilégie l'hypothèse selon laquelle l'étude des relations entre agents est indispensable à la compréhension des processus sociaux. De nombreuses études ont été menées à propos des liens entre firmes dont celles de M. Granovetter sur les business groups23. Dans les années 80, les business groups sont ainsi devenus le sujet des analyses de réseaux en étant un exemple de réseaux de production. Les groupes d'affaires sont d'abord définis comme des ensembles de firmes qui coopèrent. Pour M. Granovetter, un business group est « un ensemble de firmes légalement séparées, reliées entre elles par des liens formels et / ou informels durables. » (Granovetter, 2005, p. 429, nous traduisons). Cette définition n'est pas très éloignée de celle du réseau 23 Nous prenons principalement pour référence deux articles de Mark Granovetter : celui de 2005 et celui de 1995. - donnée plus haut. Elle exclut de cette catégorie les firmes reliées de façon temporaire dans des alliances stratégiques de court terme et les firmes ne formant qu'une seule entité légale. Cette acception est cependant très inclusive. Elle retient trois critères principaux pour distinguer les business groups. Le premier critère porte sur la temporalité des liens : les liens entre entités doivent être durables. Second critère : les firmes doivent être légalement indépendantes. M. Granovetter ajoute que ce critère est utile mais arbitraire car il existe des firmes multidivisionnelles dans lesquelles les managers de divisions ont plus d'indépendance que des firmes juridiquement indépendantes. Là aussi l'indépendance légale est un signe trompeur Il évoque enfin le cas délicat du conglomérat pour exclure de la catégorie des business groups les conglomérats dans lesquels n'existe qu'une logique purement financière. Le business group est un ensemble de firmes « connectées » par des liens opérationnels ou personnels. Ces firmes sont caractérisées par le niveau intermédiaire de leurs liens. Ainsi définies, de nombreuses firmes peuvent relever du statut de business groups. Ceux-ci sont un phénomène très répandu, connu dans divers pays sous des noms variés : les anciens Zaibatsu et les nouveaux Keiretsu au Japon, les Chaebol en Corée, les groupes économiques en Amérique Latine M. Granovetter complète sa description des business groups en expliquant qu'ils varient selon six dimensions : la source de solidarité (familiale, religieuse), l'ampleur de l'économie morale (la façon dont le groupe parvient à devenir un système social cohérent), la structure de propriété, la structure d'autorité, le rôle des institutions financières, les relations avec l'Etat. 1.4 Conclusion : les faiblesses de la notion de contrôle Que retenir de cette première moitié de parcours? Toutes les tentatives de définitions des groupes placent au coeur la question du contrôle mais après ce tour d'horizon des différentes analyses, il demeure finalement de lourdes contradictions sur ce que signifie « contrôler une société » dans le cadre d'un groupe. Le contrôle structure le phénomène mais il se révèle, dans le même temps, incapable de le saisir complètement. Ces définitions nous mettent face à une alternative : soit nous considérons le groupe comme un ensemble de sociétés, chacune d'entre elles bénéficiant d'autonomie, soit nous l'appréhendons comme un ensemble homogène dans lequel les intérêts des parties se fondent. Mais cette alternative n'est pas satisfaisante : elle nous enferme dans une approche binaire de notre objet alors que nous défendons, au contraire, la thèse selon laquelle le groupe - 49 - est une architecture complexe. Nous pensons, avec G. Farjat, qu'une « bonne part des intérêts de l'existence des groupes de sociétés réside dans la subtilité des liens entre sociétés dominantes et sociétés dominées » (1982, p.109). L'approche binaire s'explique par l'utilisation exclusive de la notion de contrôle pour décrire et comprendre les groupes de sociétés. Elle aboutit à une appréhension simplifiée, voire simpliste. Selon cette approche, le contrôle est un « tout ou rien » : le groupe existe ou n'existe pas. Mais loin d'être affaiblie par ce constat, nous allons aborder le problème de la définition des groupes différemment. Nous proposons de « basculer » du concept de contrôle à celui de pouvoir. Que signifie ce basculement? Il veut dire que nous n'allons pas essayer de suivre les méandres des liens financiers, ni nous en tenir aux frontières juridiques : nous allons repartir des logiques de pouvoirs qui se déploient au sein des groupes et retrouver par conséquent les acteurs qui les mettent en oeuvre. Nous tenterons de comprendre quelles sont les prérogatives de chacun des acteurs en présence et d'examiner de quelle façon ils les utilisent.
48,019
64/tel.archives-ouvertes.fr-tel-00820571-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,808
13,460
Hauteur profilomètre (μm) 0.175 0.312 0.400 0.500 0.710 0.935 1.000 1.225 1.920 2.100 4.200 4.400 4.935 Hauteur hydrodynamique (μm) 0.180 0.380 0.266 0.530 0.594 0.600 0.551 0.980 1.590 1.332 3.870 1.527 4.527 contre, la réussite du collage est très sensible à la présence de poussières et conduit souvent à des bulles d'air piégées. Les valeurs calibrées sont très proches de la hauteur des canaux gravés avant collage et sont même légèrement supérieures. Cependant, les mesures au profilomètre mécanique sont de moins en moins précises quand on se rapproche de la centaine de nanomètres. Il faudrait un plus grand nombre d'échantillons pour en déduire une tendance. Cette méthode a néanmoins permis de fabriquer des canaux de tailles inférieures à 0.250 μm. 1.2. Microfabrication de dispositifs en verre ou verre-silicium 35 Conclusion Dans ce chapitre, nous proposons une méthode de fabrication de dispositifs en verre ou en verre-silicium comportant des canaux dont une des dimensions est inférieure au micromètre. Dans une première partie, le dispositif est dimensionné pour pouvoir contrôler les écoulements en pression. Nous passons par deux microcanaux pour injecter les fluides de manière indirecte et limiter le bouchage des nanocanaux. Le gradient de pression dans les nanocanaux est proportionnel à la différence de pression aux entrées des microcanaux. Dans une seconde partie, nous présentons les principales étapes de fabrication d'un dispositif. La fabrication de dispositifs en verre ou en verre-silicium consiste à reproduire un motif de canaux sur un wafer de verre par photolithographie. Les canaux sont gravés chimiquement par immersion dans un bain d'acide fluorhydrique. Le wafer gravé est ensuite collé à un wafer plat en verre ou en silicium par collage thermique ou ano . Au vu des températures élevées atteintes lors du collage thermique, le verre peut se déformer et les canaux s'affaisser modifiant ainsi leur hauteur. En mettant au point une gravure du verre de 100 nm par minute et en développement le collage anodique, nous sommes parvenus à fabriquer des canaux au profil trapézoïdal allant jusqu'à 180 nm de profondeur et 35 μm de largeur. Nous proposons deux méthodes pour mesurer la profondeur des canaux après collage. De cette manière, nous calibrons avec précision la hauteur des canaux. Le travail présenté dans ce chapitre, nous permet de confiner des fluides dans des canaux sub-microniques. Mesure de vitesse par extinction de fluorescence Ce chapitre a pour but de présenter en détail la méthode de mesure de vitesse que nous avons développée et utilisée pour caractériser les écoulements dans des dispositifs micronanofluidiques. Cette méthode ayant été récemment publiée (Lab on a Chip, 12(9) :1672– 1679, 2012) (46), ce chapitre est directement issu de l'article et donc écrit en anglais. 2.1 Introduction Nanofluidics offers the opportunity to explore the interplay between bulk and interfacial phenomena (11). Interactions between the fluid and the channel walls are prominent in nanofluidic systems because of the large surface-to-volume ratio. The frequency at which a fluid molecule hits a wall by diffusion is greatly increased. Interfacial phenomena, such as adsorption and wall slippage, can influence both fluid diffusion and velocity profiles at nanoscale (47). Therefore, flow detection through velocity measurements at nanoscale is an active research field. Most techniques use fluorescent tracers to overcome the lack of sensitivity of conventional detection techniques. Two main categories of velocimetry and anemometry techniques emerge in microfluidics, using either fluorescent particles or molecular tracers (48). Downscaling these techniques below the microscale is usually not straightforward, especially when we want to access the velocity profile. Particle based methods (particle imaging velocimetry or particle tracking velocimetry) are not directly suitable to study nanoflows since the vertical resolution is limited by optical diffraction. However, by taking advantage of evanescent wave illumination, it is possible to overcome this difficulty, and thus acquire velocity profiles with a very good resolution close to the surface(49; 50; 51; 52). This technique requires however an accurate calibration and particle-wall interactions may raise the measurements' uncertainties (53). On the other hand, methods based on molecular dyes are non-intrusive and are thus well adapted to very small scales. Several approaches have been developed : measuring the displacement of tagged regions (see reference (48) for a review) or using dual-focus fluorescence correlation spectroscopy (54). Nevertheless, up to our knowledge, only one study has been able to acquire three dimensional velocity profiles below the microscale with molecular tracers, using a combination of stimulated emission depletion microscopy and laser-induced fluorescence photobleaching anemometry (55). When the acquisition of the full velocity profile is required, simpler methods based on photobleaching have been proposed. Photobleaching offers various strategies to study nanoscale flows. Measuring the fluorescence recovery(56), or measuring the fluorescence decay(57; 58) leads, after calibration, to the determination of the mean velocity in the photobleached region. However the most direct way to take advantage of photobleaching is to measure the displacement of the photobleached region, either by placing a detector at another position(59), or by imaging directly the line displacement in time(60). In this case no calibration is required. 2.2 2.2.1 Materials and methods Chip design and pressure control The clogging of microfluidic devices is a major hurdle when reducing a channel dimension below one micrometer. In order to prevent flow interruption, one possible strategy is to avoid direct injection into the nanoslits and to use standard microfluidic channels onto which nanoslits are connected (38). Furthemore, it is more convenient to use not only one, but a large number of nanoslits in parallel, so that if one is clogged the others are still usable. Eventually, some of the nanoslits are clogged after a week of use, due to dust, particles or fluorescent dye crystallization. To ensure accurate control of the pressure in the entrance of the nanoslits, we have designed our chips so that the total flow rates in the nanoslits are negligible compared to those in the microchannels. Our design is sketched in Figure 2.1, where 8 to 115 nanoslits are connected perpendi- 40 Mesure de vitesse par extinction de fluorescence cularly to two microchannels. As shown below, such a device leads to an indirect pressure gradient control in the nanoslits. We fabricated four devices, varying the nanoslits' heights, h from 0.27 to 4 μm (0.266, 0.551, 1.59, 3.87 μm). The height of the microchannels is of the order of 40 μm. Due to isotropic glass etching, the channel width, w is much larger than the channel height (see section 2.2.2). The widths of the nanoslits and the microchannels are about 25 μm and 250 μm respectively. Nanoslits w = 25 μm P1 P2 h = 0.27 – 4 μm Li L Microchannels 250 μm Pi1 Pi2 Photobleached region z 40 μm y wb h w l P0 x P0 Figure 2.1 – Top view of a micro-nano glass chip and schematic representation of a nanoslit with the flow in the x-direction, the height h in z-direction and the width w in the y-direction. Nanoslits are photo ed over a region of width wb (typically between 5 and 10 μm) for a bleaching time τb from 50 to 120 ms. A pressure-driven flow is established in the nanoslits through a pressure difference in microchannels. Both ends of the microchannels are connected to a pressure-control regulator (MFCS 4C, Fluigent). We apply pressures P1 and P2 at the inlet of microchannels 1 and 2 and P0 at the outlets. 2.2.2 Fabrication details Standard photolithography and wet etching are used to make micro-nano glass chips. A glass wafer (3 inches Borofloat 33, Sensor Prep) is protected by chromium and gold layers (Vacuum coater, BOC Edward Auto 500) of 30 nm and 70 nm respectively. A positive photoresist (Microdeposit S1818, Rohm and Haas) is then spin-coated on the wafer and insulated with a UV-light (Aligner, Suss Microtec MJB4) through a mask. Two successive etching steps are performed. The protection step is repeated in between. Microchannels are etched first with a solution at 20 % of hydrofluoric acid in DI-water. The etching rate is about 1 μm per minute, depending on the glass properties. Nanoslits are then etched with BOE (Buffer Oxide Etchant) containing about 7.7 % of hydrofluoric acid (60 g of NH4 F, 25 ml of HF 40 %, 5 ml of HCl and 100 ml of DI-water). The BOE has a slower etching rate of about 100 nm per minute, which allows a better control of both channel height and wall flatness. The etched wafer is cleaned of all protective layers. The etched wafer and a flat one are cleaned with a mixture of sulfuric acid and hydrogen peroxide (400 ml of H2 SO4 at 95 % and 400 ml of H2 O2 at 30 %), prior thermal bonding. In order to control the channel geometry, particular care is given to wet etching and thermal bonding steps. Hydrofluoric acid solutions allow us to etch microchannels and nanoslits with flat walls. Nanoslits have rectangular cross-sections from 0.27 to 4 μm x 25 μm. 2.2.3 Imaging and bleaching Image acquisition is performed with a confocal microscope (Observer.Z1 LSM 5 Live, Zeiss) and a 63× immersion oil objective at acquisition rates ranging from 10 to 60 images per second. In order to visualize the flow, we use a solution of fluorescein isothiocyanate. This dye is known to be easily photobleached (60). The acquisition procedure consists of two steps. In the first illumination step, a defined region of the channel is exposed to the laser beam at maximum power of 100 mW to cause bleaching of the molecules. We create a 'dark' line in the solution, perpendicular to the flow direction. Typical width of the bleached region is on the order of 7.5 μm, and the bleaching time is less than 120 ms. These two parameters are adjusted to improve the signal to noise ratio of the intensity profile for different flow velocities and diffusion coefficients. The second illumination step corresponds to image acquisition at low laser intensity, so that we follow the progression of the line in the channel over time. The bleaching and imaging procedures are automated together with the pressure control, so that systematic measurements can be easily carried out. 2.2.4 Mesure de vitesse par extinction de fluorescence Fluids The solutions used for all experiments are water/glycerol mixtures containing fluorescein isothiocyanate (FITC), purchased from Sigma-Aldrich at 0.1 × 10−3 mol/L. However, the fluorescence intensity of FITC is maximum at pH equal to 7 (62), so we add a few drops of NaOH at 2.5 × 10−3 mol/L to reach this pH. Solutions are then filtered through a 0.2 μm pore diameter EKV membrane (Acrodisc, Pall). Table 2.1 reports the viscosity of different solutions. Viscosity measurements are performed on a stress-controlled rheometer (Advanced Rheometer 1000, TA Instruments) with a cone-plate geometry at 22◦ C. Table 2.1 – Solutions of water/glycerol used and their viscosities. Water/Glycerol mass ratio 100 / 0 90 / 10 75 / 25 50 / 50 40 / 60 25 / 75 2.3 Viscosity (Pa.s) 8.8 × 10−4 1.2 × 10−3 2.0 × 10−3 5.6 × 10−3 1.0 × 10−2 3.1 × 10−2 Analysis Let us consider the transport properties of a solute in a pressure driven flow inside a rectangular cross-sectional channel. The solute concentration c (in the dilute limit) follows the convection-diffusion equation ∂c ∂c + v(y, z) − D∆c = s, (2.2) ∂t ∂x where D is the molecular diffusion coefficient, v the velocity and s the source term. This equation is greatly simplified thanks to the experimental geometry. Given the small channel height, the characteristic time necessary for a solute molecule to diffuse along the z-direction is rather small compared to the acquisition time scale. The diffusion time is estimated as h2 /D. Thus, for small heights, the condition is always fulfilled, since h2 /D is on the order of a few milliseconds. As a consequence, the concentration is homogeneous throughout the height and it is natural to consider z-averaged quantities. Furthermore, given the aspect ratio of channels - the width is from 6 to 100 times larger than the height - we consider that the problem is invariant in the y-direction. Under these assumptions, the problem reduces to the situation described by Taylor and then refined by Aris (63; 64), who showed that the z-averaged concentration c̄ is given by : ∂c̄ ∂c̄ ∂ 2 c̄ + v0 − Deff 2 = s(x, t), ∂t ∂x ∂x (2.3) 2.3. Analysis 43 where, in between two infinite plates (65), Deff = D 1 + Pe2z /210 and Pez = hv0 /D with v the mean velocity. In the mean velocity frame of reference, this equation reduces to : ∂ 2c ∂c − Deff 02 = s(x0 + v0 t, t) ∂t ∂x 0 where x = x − v0 t. The impulse response of this equation is expressed as : x02 H(t) 0 0 exp −, c (x, t) = √ 4Deff t 4πDeff t (2.4) (2.5) where H is the Heavyside function. It allows to calculate the solution for an arbitrary source using a convolution, which reads Z 0 c(x, t) = c0 (λ, τ )s (x0 + v0 (t − τ ) − λ, t − τ ) dτ dλ, (2.6) Both the bleaching duration τb and spatial width wb can not be neglected since they are of the order of the acquisition time scale. We assume that the source s is given by s(x, t) = s0 u (x/wb ) u (t/τb ), where u is the rectangular function. Finally, we obtain for t > τ b /2 : s0 c(x, t) = 2 0 Z t+τb /2 t−τb /2 [ψ(wb, τ ) − ψ(−wb, τ )] dτ, (2.7) where wb /2 + x0 + v0 (t − τ ) √ ψ(wb, τ ) = erf. 4Deff τ (2.8) This expression is easily estimated numerically. An example of the resulting concentration profiles, using is typical experimental parameters, is shown in Figure 2.2, in the case where the flow velocity influences the concentration profile. We observe that the concentration profile is symmetric and looks very similar √ to a Gaussian function. Its standard deviation is higher than for an impulse response,√ 2Deff t. For small velocities, v0 wb /tb, the second moment is of the order of wb /2 + 2Deff t. For high velocities, the standard deviation increases. Indeed, during the photobleaching step, molecules have time to travel across the bleaching region and even further. The second moment of the distribution is estimated just after the bleaching by (wb + v0 tb )/2. We notice that the concentration profiles deviate from a Gaussian shape only at very short times. When high velocity is coupled with fast diffusion, i.e. for intermediate values of v0 wb /D, the concentration profile could be asymmetric at short time (see the first profile after the bleaching in Figure 2.2). These situations are avoided in the experiments by decreasing the bleaching time, which also raises the contrast of images in this regime. As soon as the profile is symmetric, the maximum value of the concentration profile simply follows v0 t and could be used to measure the mean flow velocity. 2.4 The mean velocity in a nanoslit is determined from the temporal evolution of a photobleached region, as shown in the image sequence in Figure 2.3. For each photobleaching experiment, the acquisition of two image sequences is required. In the first sequence, a region of the channel is photobleached and its movement is recorded. In the second sequence, no photobleaching is made ; instead, the gradual fluorescence 2.4. Results and discussion 45 x 15 μm y Figure 2.3 – Image sequence of a photobleached line in a 266 nm high nanoslit, acquired at 30 images per second. A 7.5 μm wide region is photobleached for 100 ms. The fluorescence intensity is analyzed over a region of interest, which is displayed on the first image of the nanoslit. The mean velocity is v0 = 2.5 × 10−5 m/s and P ez = 0.093. Total intensity 0.4 0.35 0.3 ( I0 − I )/ I 0 0.45 0.25 1.05 1 0.95 0 0.1 t (s) 0.2 0.2 −0.05 7 8 9 10 x (m) 11 12 13 −5 x 10 Figure 2.4 – Example of fluorescence intensity profiles (filled circles) extracted from a time sequence of 15 images and Gaussian fits to the data (solid lines). Experiment carried out in a 1.59 μm high channel on a 50/50 water/glycerol mixture at the acquisition rate of 60 frames per second. In insert, the corresponding total intensity is plotted as a function of time. It is computed by integrating the fitted profiles (I0 − I)/I0 over space. intensity decrease, due to laser exposition during routine image acquisition, is monitored. The latter sequence is used as reference images for the first. Images from the two sequences are subtracted and averaged in the y-direction, transverse to the flow, considering a region of interest as shown in the Figure 2.3. The resulting intensity I0 − I is then normalized by the reference intensity I0. Figure 2.4 shows a typical out e of the experiment. The quantity (I0 − I)/I0 is plotted as a function of the x-position in the nanochannel for different times in the image sequence. Each concentration profile is fitted with a Gaussian function, c(x) = A exp − (x − x0 )2 /2σ 2. As shown in Figure 2.4, the Gaussian functions are in excellent agreement with the data. 2.4.1 Velocity The mean position of the concentration peak x0 as a function of time is shown in Figure 2.5. The mean line position is perfectly linear with respect to the time, such that x0 = v0 t, leading to a precise measurement of the mean z−averaged velocity, v0. To increase the precision, we systematically carry out 5 photobleaching experiments and average the resulting velocities. A typical error of 2% is obtained, indicating a good reproducibility of the velocity measurements. We verify the uniformity of the velocity along the nanoslit, i.e. the velocity is independent of the observation location. is simply given by, where The mean velocity in the central region of the channel is given by the Poiseuille law 1 : 1. Due to isotropic chemical etching, the cross-section of nanoslits is not strictly rectangular. Given the high aspect ratios of nanoslits, the shape of the channel sides will not influence the maximum velocity 2.4. Results and discussion 47 1 h2 ∆Pi , (2.9) 12 η l Knowing that ∆Pi ∝ (P1 − P2 ) for a given nanoslit (see equation 2.1 in section 2.2.1), the velocity is proportional to the inlet pressure difference. This is verified in Figure 2.6 a and b with various fluid viscosities. The accessible velocity range is quite large and goes from 10−6 to 10−3 m/s. Note that the positive and negative displacements align perfectly, which means that there is no effect of the scan direction of the laser. Indeed, we limit our study to small velocities as compared to the scan speed of the confocal microscope, which is about 15 mm/s. v0 = −4 x 10 4 a) Velocity v0 (m/s) 2 1 0 −1 −2 −3 −4 −8 −6 −4 −2 0 2 4 6 8 P1 -P2 (Pa) −3 10 4 x 10 c) b) −2 10 ηf (Pa.s) v0 (m/ s) 3 −5 10 1 −3 10 −7 10 3 10 4 10 P1 -P2 (Pa) 5 10 −2 10 ηr (Pa.s) Figure 2.6 – a) Velocities versus inlet pressure difference P1 − P2 for water/glycerol mixtures with decreasing viscosities from dark to light color symbols in a 551 nm high channel. The error bars denote one standard deviation, which represents a maximum error of 2% on the velocity measurement. 2.4.2 Effective diffusion coefficient The second parameter we extract from the intensity profiles is the standard deviation σ, i.e. the half width of the photobleached line. As explained in the analysis section 2.3, the relation √ between standard deviation and effective diffusion coefficient is not simply √ given by σ = 2Deff t. Figure 2.7 shows some examples of the variation of σ versus t, which is obviously not linear, due to the finite size of the bleaching width wb and duration τb. These data are systematically fitted with theRsecond moment of the predicted concentration profile defined in equation 2.7, i.e. σ(t) = x02 c0 (x0, t)dx0. The only fitting parameter is the effective diffusion coefficient, since wb and τb are experimental parameters and v0 is estimated from the temporal evolution of the maximum position, as detailed in the previous section. As shown in Figure 2.7, the fitting curves are in reasonable agreement with the data. It validates our approach for a wide range of Peclet numbers Pez, from 10−3 to 100. If we now compare the curves at different Peclet numbers, i.e. velocities, we observe that the standard deviation increases with the velocity. We see two main reasons. First the initial width of the line is larger for high velocities. Indeed, a larger number of molecules have traveled through the photobleached region during the bleaching step. Second, while increasing the Peclet number, hydrodynamic dispersion comes into play and the effective diffusion coefficient increases. It results in a faster spreading. For each fluid and channel height, we determine the effective diffusion coefficient as a function of the velocity, i.e. Peclet number, as shown in Figure 2.8. In all cases, Deff is constant for low Peclet numbers and then increases significantly. According to the analy- 2.4. Results and discussion 49 −5 1.6 x 10 1.4 σ (m) 0.2 0 0 0.1 0.2 √ 0.3 √ t ( s) 0.4 0.5 √ Figure 2.7 – Examples of the photobleached line width σ as a function of t. Note that the time origin is taken in the middle of the bleaching step. The experimental data (symbols) are fitted by the predicted standard deviation (solid line, see text for the details) where Deff is the single fitting parameter for different solutions : 40/60 water/glycerol mixture (circles), for which D = 3.74×10−11 m2 /s. Peclet numbers Pez are from top to bottom 52.3, 17.6 and 0.676. A 50/50 water/glycerol mixture (squares), for which D = 7.29×10−11 m2 /s and Pez = 0.0549. sis, we expect the effective diffusion coefficient to be given by D 1 + Pe2z /210. We take advantage of the low Peclet number regime to determine for each solution the molecular diffusion coefficient D. D is the mean value of Deff for Pez < 1. The results are displayed in the insert of Figure 2.8 as a function of the inverse of the viscosity η of the solutions. The values obtained for different heights of nanoslits are similar. The error bars denote one standard deviation and represents a typical error of 20 %. The molecular diffusion coefficient obtained in water is about 3 × 10−10 m2 /s at 22◦ C, which is in quite reasonable agreement with values published in the literature (D = 4.17 × 10−10 m2 /s at 25◦ C in reference (66)). Besides, in the insert of Figure 2.8, D ∝ 1/η, which is in agreement with the Stokes-Einstein equation D = kB T /6πηR. A linear fit to the data leads to an estimation of the hydrodynamic radius R of the fluorescein molecule of 6.9 Å. We can thus conclude that fluorescence photobleaching method also leads to the determination of molecular diffusion coefficients in a flowing fluid. In Figure 2.8 we report the values of effective diffusion coefficients normalized by the molecular ones as a function of Peclet number. The data for water/glycerol mixtures in 0.27 to 4 μm high channels fall on the same curve and follow the law Deff /D = 1 + Pe2z /210. Our results thus agree well with the predicted evolution of the effective diffusion coefficient, coming from a 2D analysis of the hydrodynamic dispersion, for a wide range of Peclet 50 Mesure de vitesse par extinction de fluorescence 2 D (m2 s−1 ) 10 −10 10 Deff /D 1 10 −11 10 2 3 10 10 −1 1 /η (Pa.s) 0 10 −4 10 −3 10 −2 10 −1 10 0 10 1 10 2 10 P ez Figure 2.8 – Dependence of the effective diffusion coefficient, Deff normalized by the molecular diffusion coefficient D, on Peclet number Pez = v0 h/D. 2.4.3 Lateral dispersion Until now, we quantified the contribution of Taylor hydrodynamic dispersion in zdirection to the spreading of the photobleached line. We have shown that a 2D analysis accounts for Deff variations in the time range investigated. Ajdari et al. (61) argue that Taylor dispersion in y-direction also comes into play at long times. In fact, for the lowest viscosities studied, the diffusion time scale w2 /D is on the order of the acquisition time scale (0.1-1s). In this case, a curvature of the photobleached line is observed, as shown in 2.4. Results and discussion 51 Figure 2.9. This curvature is a signature of the hydrodynamic dispersion in the y-direction. Dutta et al. (67) considered a pressure-driven flow of a solute through an isotropically etched channel. They demonstrated with numerical simulations the apparition of nonGaussian tails at the side of the channel at short times (t << w2 /D), which should evolve toward a Gaussian distribution at long times. x 15 μm y Figure 2.9 – a) Image sequence of a curved photobleached line in a 30 μm wide × 1.59 μm high channel, acquired at 60 images per second. A 7.5 μm wide region is photobleached with a 488 nm wavelength laser at maximum power of 100 mW for 73 ms. The mean velocity is v0 = 5.13 × 10−4 m/s and Pey = 176. On the first image of the nanoslit, we display the position of the line (circles) as a function of y and its adjustment with a parabolic function (solid line). In order to discuss this observation, the line curvature is recorded during its progression in the channel for each experiment. For every image, the channel width is divided into 5 zones as a function of y. For each zone, we determine the intensity profile and use Gaussian fits to measure the line position x0 as a function of the y-position (see first image in Figure 2.9). Then a parabolic fit of these data leads to an estimation of the line curvature 1/Rc. This quantity reflects the importance of the hydrodynamic dispersion in the y-direction in the experimental time range investigated. At longer times, we expect that the diffusion would homogenize the concentration along the channel width, but our set up does not allow the exploration of this long time regime since it requires a larger observation window. The logarithm of the normalized curvature w/Rc is displayed in Figure 2.10 as a function of Pey = Pez w/h and x̃ = x/w, and exhibits a regime at high Pey and x̃ where the photobleached line is curved. Let us interpret this observation by considering the three necessary conditions for the lateral dispersion to be efficient. i) The line curves only if convection dominates the diffusion process in the lateral direction. Thus, Pey > 1. ii) At long times, the diffusion should homogenize the concentration and the curvature of the line should disappear for t > w2 /D. Since x0 = v0 t, this condition reads Pey < x̃. 2.4.4 Application to a polymer solution One of the interesting applications of the technique is the study of the flow properties of complex fluids below the micron scale. To give an example of the possibilities offered by this technique, we measure the viscosity of a solution of a 2 × 105 g/mol molecular weight polyacrylamide (Acros Organics) at 5 wt % in water in our nanofluidic devices and on a stress-controlled rheometer. In both cases, we scan a range of shear rates from 10 to 250 s−1, for which the viscosity remains constant. Thus, the polymer solution does not exhibit any shear-thinning in the bulk or in confinement. As shown in Figure 2.11, we notice however a significant decrease of the effective viscosity with confinement, which may involve slippage at the wall. Indeed, polymer solutions are well known to exhibit large slip length (68). Further interpretations will be the object of a future publication. 2.4. Results and discussion 53 ηeff (Pa.s) 0.05 0.04 0.03 Bulk 0.02 0.01 −7 10 −6 10 −5 10 h (m) Figure 2.11 – Viscosity of a 2 × 105 g/mol molecular weight polyacrylamide solution at 5 wt % in water as a function of the channel height h for a given shear rate of 100 s−1, estimated by γ̇ = 2.v0 /h. The bulk viscosity, measured on a stress-controlled rheometer is given for a shear rate of 100 s−1. Conclusions This work lays the foundation for the study of nanoscale flows using fluorescence photobleaching. A wide range of mean velocity measurements are obtained, together with an evaluation of diffusion coefficients. Considering fluorescein in water/glycerol mixtures, the accessible velocity range goes from 10−6 to 10−3 m/s. The temporal evolution of the signal to noise ratio determines the measurement accuracy. As a result, the measurement of low velocities is limited by molecular diffusion. The minimum velocity for a small dye molecule in water is about v = 10−6 m/s, which corresponds to Pe ≈ 10−3. To measure high velocities, the limiting factor is the apparition of Taylor dispersion for Pe > 102, which corresponds to v = 10−3 m/s in our experimental conditions. Interestingly, by reducing the channel height, we push back the highest limit of the velocity range as compared to the one in the microchannels. Furthermore, 3D effects of the hydrodynamic dispersion are small as long as we focus on short times. Thus, fluorescence photobleaching benefits from excellent sensitivity below the micron scale. As the signal to noise ratio remains very good at a few hundreds of nanometers, we can reasonably hope that the technique is still usable with smaller channel heights. We noticed that thermal bonding of glass wafers often induces a buckling of the channel walls. Decreasing the channel height will require other bonding methods, such as anodic bonding. Our setup brings accurate measurements of fluid viscosities in nanoslits. Future work will deal with fluorescence photobleaching technique to the study of complex fluid flows in nanoslits. tel-00820571, version 1 - 6 May 2013 55 Chapitre 3 Rhéologie volumique des solutions de polymères Résumé Dans ce chapitre, une première partie est dédiée à la description des solutions de polymères, neutres ou chargés. Dans une seconde partie, les propriétés rhéologiques volumique de solutions de polyacrylamides et de polystyrènes sont présentées. À partir des courbes d'écoulement, et en particulier de la variation de la viscosité spécifique avec la concentration en polymères et en sel, nous déterminons les régimes de concentration des différentes solutions. Nous proposons ensuite une estimation des tailles caractéristiques des objets en solution, à savoir le rayon de giration Rg en régime dilué et la longueur de corrélation en régime semi-dilué ξ, et le rayon des chaînes Rsd en régime semi-dilué. Le polystyrène de masse molaire : – 7.5×105 g/mol, pour lequel Rg vaut 24 nm en régime dilué (C < C ∗ ) (solutions à 10000 et 20000 ppm) ; ξ vaut 14 nm et Rsd vaut 16 nm en régime semi-dilué (C > C ∗ ) (solution à 32000 ppm) a un comportement newtonien. – 2.8×105 g/mol, pour lequel Rg vaut 53 nm en régime dilué (solutions à 2500 et 5000 ppm) ; ξ vaut 30 nm et Rsd vaut 36 nm en régime semi-dilué (solution à 12500 ppm) a un comportement rhéofluidifiant. Le polyacrylamide partiellement hydrolysé de masse molaire : – 2×105 g/mol, pour lequel ξ varie entre 7 et 22 nm et Rsd varie entre 30 et 55 nm, a un comportement newtonien. Les solutions à 5000 ppm et 10000 ppm, avec ou sans NaCl, sont dans le régime semi-dilué non enchevêtré (C ∗ < C < Ce ) alors que la solution à 50000 ppm est dans le régime semi-dilué enchevêtré ( C > Ce ). – 8×106 g/mol, pour lequel ξ varie entre 14 et 44 nm et Rsd varie entre 340 et 780 nm, a un comportement rhéofluidifiant. Les solutions à 500 ppm et 1000 ppm, avec ou sans NaCl, sont dans le régime semi-dilué non enchevêtré alors que la solution à 2000 ppm est dans le régime semi-dilué enchevêtré. Une comparaison de la hauteur des canaux sub-microniques (h=180 et 5000 nm) avec la taille des objets en solution est alors possible. La taille des canaux représente entre 200 et 0.25 tailles de chaînes. L'échelle sub-micronique permet de sonder l'écoulement de utilisés Les solutions de polymères ont des propriétés rhéologiques spécifiques du fait de la présence d'objets déformables en solution. Nous avons choisi d'étudier les écoulements submicroniques de deux familles de solutions de polymères : l'un est neutre, le polystyrène (PS), et l'autre, le polyacrylamide partiellement hydrolysé (HPAM) est un polyélectrolyte. Le polyacrylamide présente des charges négatives le long de ses chaînes et il est très soluble dans l'eau. Il est connu pour ses propriétés viscosifiantes à faible concentration et il est largement utilisé dans le domaine de la récupération assistée du pétrole (69). Un certain nombre d'études portent sur la rhéologie de ces polymères (70; 71; 72; 73; 74; 75; 76; 77; 78). 3.1 Les systèmes polymère/solvant utilisés Les polymères sont des macromolécules, issues de l'assemblage covalent d'unités monomères. Nous nous intéressons à deux familles de polymères linéaires : un polymère neutre, le polystyrène et un polymère chargé, le polyacrylamide partiellement hydrolysé HPAM. 58 3.1.1 Le polystyrène dans le DCB/DMSO en présence de résorufine Le polystyrène est un polymère modèle qui a une structure moléculaire simple, flexible et neutre, dont on maîtrise très bien la synthèse à de grandes masses molaires. Il existe commercialement sous forme fluorescente : des groupements anthracènes sont fixés en bouts de chaîne. Plusieurs solvants du polystyrène sont testés, accompagnés de plusieurs fluorophores. L'objectif est de trouver un solvant qui solubilise à la fois le polystyrène et le fluorophore. Le fluorophore doit être facilement photoblanchi pour permettre une mesure de vitesse sur une grande gamme. Les meilleurs résultats sont obtenus avec des solutions de polystyrènes dans un mélange d'ortho-dichlorobenzène (DCB) et de dimethylsulfoxyde (DMSO) en proportion massique 90/10, contenant 100 μmol/L de résorufine. Le DCB est un bon solvant du polystyrène, peu volatile, comparé aux solvants usuels comme le THF. Le DMSO est un bon solvant de la résorufine et un co-solvant du système polystyrène dichlorobenzène. Un mélange DCB/DMSO, en proportion massique de 90/10, solubilise parfaitement le polystyrène et la résorufine. Les solutions de polystyrènes sont filtrées à travers une membrane de taille moyenne de pores de 0.2 μm en polyfluorure de vinylidène (Whatman Filter PVDF 0.2 μm) à un débit d'environ 0.5 mL/min. Figure 3.1 – Formule chimique du polystyrène ( Nous comparons les comportements de deux polystyrènes de grande masse molaire moyenne en masse : 7.5×105 g/mol et 2.8×106 g/mol, achetés à Polymer Source Inc. Ces polymères sont très monodisperses (Mn /Mw = 1.02). Ils sont solubilisés dans un mélange d'ortho-dichlorobenzène (DCB) et de dimethylsulfoxyde (DMSO) en proportion massique 90/10 et contenant 100 μmol/L de résorufine. 3.1.2 Le polyacrylamide dans l'eau en présence de fluorescéine Le polyacrylamide est une succession d'acrylamides et forme une chaîne linéaire. Dans notre cas, il est partiellement hydrolysé et présente donc un groupement carboxyle (COOH) ou carboxylate (COO− ) en fonction du pH le long de la chaîne. Sachant que le pKa du groupement carboxyle est généralement compris entre 3 et 4, la fonction est majoritairement chargée dans l'eau à pH = 7. Le polyacrylamide partiellement hydrolysé (HPAM) est représenté sur la figure 3.2. Le taux de charges f est d'environ 10% pour le polymère de 3.2. Rappels théoriques sur les solutions de polymère s neutres 59 masse molaire 2×105 g/mol et 25% pour le polymère de masse molaire 8×106 g/mol. Le polyacrylamide est soluble dans l'eau. n ou m Figure 3.2 – Formule chimique du polyacrylamide partiellement hydrolysé. Le taux de charges f = m /(n+m) est d'environ 10% pour le polymère de masse molaire 2×105 et 25% pour le polymère de masse molaire 8×106 g/mol. Nous nous intéressons à deux polyacrylamides de grande masse molaire moyenne en masse : 2×105 g/mol et 8×106 g/mol, solubilisés dans l'eau distillée et contenant 100 μmol/L de fluorescéine. Le polymère de forte masse m nous a été fourni par SNF. Le polymère de faible masse molaire a été acheté chez Sigma Aldrich. L'indice de polydispersité de ces polymères est vraisemblablement assez grand. 3.2 Rappels théoriques sur les solutions de polymères neutres Dans cette partie, nous décrivons les solutions de polymères en nous appuyant sur quelques résultats théoriques, issus pour l'essentiel de la référence (79). Une chaîne de polymère résulte de l'assemblage covalent d'unités monomères. La longueur moyenne d'une chaîne est reliée à sa masse molaire moyenne en masse par la relation, Mw = M0 N, avec M0 la masse molaire d'un monomère et N le degré de polymérisation moyen ou nombre moyen d'unités monomères formant une chaîne. De façon très générale, les chaînes de polymères en solution peuvent prendre différentes conformations : pelotes statistique ou bâtonnets, étendues ou compactes. La conformation dépend de la structure chimique de la chaîne (nature des groupements latéraux, contraintes stériques), des interactions inter- et intramoléculaires, des interactions avec le solvant, de la température, etc. 3.2.1 Dans le modèle de la chaîne idéale, N unités monomères de longueur a sont orientées aléatoirement dans les trois directions de l'espace et soumises à l'agitation thermique. Dans ce système sans interactions avec le solvant et sans orientations privilégiées des liaisons chimiques de la chaîne carbonée, la chaîne adopte une conformation favorable entropiquement, appelée pelote statistique. La taille de la pelote est caractérisée par son rayon de giration : le rayon de la sphère qui contient la pelote. Ce modèle donne une indication tel-00820571, 60 qualitative des dimensions des chaînes de polymères réelles en solution. Dans le cadre du modèle de la chaîne idéale, hR2 i0 = N a2, avec hR2 i0 la distance quadratique moyenne qui sépare les deux extrémités de la chaîne. hR2 i0 est reliée au rayon de giration par la relation Rg2 0 = hR2 i0 /6. Pour tenir compte de la flexibilité finie de la chaîne, Kuhn (80) propose un modèle de chaîne équivalente de Kuhn. En définissant la chaîne comme un assemblage de Nk segments de longueur Lk, avec Lk la longueur de Kuhn, supérieure à la longueur d'un monomère, a, on prend en compte la rigidité de la chaîne due aux angles de valence et aux rotations privilégiées des liaisons chimiques ainsi qu'à l'encombrement stérique. On définit le facteur CN comme le rapport entre Lk et a ; ce facteur tend rapidement vers une valeur fixe√C∞ lorsque N augmente. La taille de la chaîne est alors simplement donnée par R = C∞ N. Dans le cas d'une chaîne réelle en solution, on doit par ailleurs considérer les interactions polymère-solvant. Au sein d'une chaîne, la distance moyenne entre deux monomères dépend des interactions polymère-solvant, solvant-solvant et polymère-polymère. De plus, deux segments de chaînes ne peuvent pas entrer en contact. La notion de volume exclu permet de considérer les interactions entre monomères à longue distance. Le coefficient d'expansion de Flory (81) α, rend compte du gonflement de la pelote en bon solvant (α > 1) ou de la contraction de la pelote en mauvais solvant (α < 1). Le cas α = 1 correspond aux conditions θ pour lesquelles l'énergie d'interaction attractive polymère-solvant compense l'interaction répulsive polymère-polymère liée au volume exclu intramoléculaire. En condition θ, solvant ou température θ, on se retrouve dans le cas de la chaîne, dite idéale. 3.2.2 Régimes de concentration et dimensions caractéristiques Pour les polymères neutres, on considère deux régimes distincts en fonction de la concentration. A basse concentration, en régime dilué, les pelotes sont isolées les unes des autres, alors qu'en régime semi-dilué à plus forte concentration, elles sont enchevêtrées (voir fig. 3.3). 3.2.2.1 Le régime dilué En régime dilué, les pelotes sont séparées les unes des autres et se comportent sans interactions mutuelles. La taille caractéristique du système est le rayon de giration. Quand la concentration augmente, les pelotes commencent à interagir et à s'enchevêtrer. On parle de concentration critique de recouvrement C ∗ quand la concentration en polymères dans la solution C est égale à celle dans une pelote. Quand C > C ∗, on passe en régime semi-dilué. La définition de C ∗ permet d'écrire que Rg = (Mw /(4/3πC ∗ NA )) 1/3 , (3.1) 3.2. pels riques sur les solutions de polymères neutres 61 Figure 3.3 – Régime de concentration des solutions de polymères neutres où NA la constante d'Avogadro. En bon solvant, on a Rg ∝ aN 3/5. Une combinaison de ces deux équations donne donc C ∗ = (M0 /NA ) (N/(aN 3/5 )3 ), d'où 9/5 C ∗ ∝ (Mw−4/5 M0 )/(NA a3 ). (3.2) Les expressions de C ∗ et Rg sont valables pour un polymère en bon solvant qui ne présente pas de charges sur sa chaîne. A partir des résultats expérimentaux qui seront présentés dans le paragraphe 3.4.5.1 de ce chapitre, nous pouvons déterminer empiriquement le préfacteur v et en déduire les valeurs de Rg. Le détail des paramètres est présenté dans le tableau 3.1 pour les solutions de polystyrènes. Nous obtenons des rayons de giration de 24 nm et 53 nm pour les deux polystyrènes utilisés (de masse molaire respectives 7.5×105 et 2.8×106 g/mol). 3.2.2.2 Le régime semi-dilué En régime semi-dilué, la longueur caractéristique appropriée du système est la distance moyenne entre enchevêtrements, ξ. Par un raisonnement en loi d'échelle, P.-G. de Gennes (82) propose une expression de ξ telle que : ∗ 3/4 C. (3.3) ξ = Rg C D'après P.-G. de Gennes, une chaîne polymère en régime semi-dilué peut être vue comme l'enchaînement de x « blobs » de taille ξ. Dans chaque blob, la chaîne se comporte 3/5 comme une chaîne réelle en bon solvant, donc ξ ∝ agblob, avec gblob le nombre de monomères dans un blob. Nous obtenons gblob 5/3 ξ =. a (3.4) À l'échelle de la chaîne complète, la pelote se comporte comme une chaîne idéale, avec Rsd le rayon moyen de chaque pelote en régime semi-dilué et avec xblobs = N/gblob : √ (3.5) Rsd = xblobs ξ. Une application numérique pour C ∗, Rg, ξ et Rsd est proposée dans le tableau 3.1. (3.6) 3.2. Rappels théoriques sur les solutions de polymères neutres 63 Nous obtenons l'équation générale : ζ ∂ R~n ∂t! =K ∂ 2 R~n ∂n2! + f~n. (3.7) Lorsqu'on applique une contrainte sur des chaînes, elles relaxent par diffusion. Rouse a décomposé les équations du mouvement d'une chaîne suivant les modes propres p de diffusion de la chaîne. Il apparaît un spectre de temps caractéristiques τp associés à chaque mode p de diffusion et donnés par : ζp. (3.8) τp = Kp En posant ζp = 2N ζ et Kp = (2π 2 Kp2 )/N, nous obtenons τp = ζa2 N 2. 3π 2 kb T p2 (3.9) Lorsque p = 1, on fait bouger la chaîne en entier. Le temps caractéristique de la diffusion de la chaîne est donné par : ζa2 N 2 τR = 2. (3.10) 3π kb T A partir de l'expression du tenseur microscopique des contraintes, on peut montrer que le module de relaxation G(t) est donné par : kB T C X t G(t) = exp −, (3.11) N τ p p où C est le nombre de segments de Kuhn par unité de volume. Le module élastique G0 et le module visqueux G00 sont donnés par : 0 G = GR ∞ X p=1 et 00 G = GR ∞ X p=1 w2 τp2, 1 + w2 τp2 (3.12) wτp. 1 + w2 τp2 (3.13) R Enfin, la viscosité dans le domaine linéaire η0, s'obtient directement à partir de η0 = G(t)dt et s'exprime comme C η0 = ζN a2. (3.14) 36 La viscosité du fluide η0 est proportionnelle à C dans un fondu de polymères et pour des chaînes courtes. Pour les solutions de polymères diluées, le modèle de Zimm poursuit un raisonnement identique au modèle de Rouse, en tenant compte en plus des interactions hydrodynamiques 64 entre toutes les billes. Ce modèle, valable pour le régime dilué, ne modifie pas significativement les résultats, sauf pour la viscosité de la solution qui dépend de la viscosité du solvant ηs. La viscosité d'une solution diluée peut s'exprimer par : η0 = ηs + αC. (3.15) Le coefficient α dépend essentiellement du couple polymère-solvant. On retiendra que la viscosité relative (η0 − ηs ) /ηs est proportionnelle à la concentration. Le modèle de Doi-Edwards dans un fondu de polymères enchevêtrés (84) en régime linéaire Le modèle de Doi-Edwards permet de savoir comment relaxe une chaîne de polymères enchevêtrés au cours du temps et pour une déformation en régime linéaire. Il s'applique aux chaînes longues dans les fondus de polymères, et par extension au régime semi-dilué dans les solutions de polymères. Lorsque le polymère est de grande masse molaire, les chaînes du fondu de polymères sont enchévêtrées. Une chaîne subit les interactions des chaînes voisines via les enchevêtrements. Une chaîne relaxe une contraînte en diffusant à l'intérieur d'un tube dont les bords sont fixés par les points d'enchevêtrement avec les chaînes adjacentes. Il s'agit du mouvement de reptation, concept inventé par P.-G. De Gennes (82), qui intervient aux temps longs. Désignons Ne, le nombre moyen de monomères de longueur a entre deux enchevêtrements et b, le diamètre du cylindre. Entre deux enchevêtrements, la chaîne reste localement √ à l'équilibre thermodynamique et se comporte comme une chaîne gaussienne : b = Ne a et L = bN/Ne. Une chaîne relaxe une contrainte par diffusion à l'intérieur d'un tube. Le coefficient de diffusion curviligne Dc de la chaîne le long du tube s'exprime comme : Dc = kB T Nζ (3.16) avec ζ le coefficient de friction d'un monomère. Le temps caractéristique de diffusion τrep est donné par : L2 N 3 b2 ζ =. (3.17) π 2 Dc Ne π 2 kb T En intégr ant le module de relaxation G(t) de la chaîne aux temps longs, nous obtenons l'expression de la viscosité η0 : τrep = η0 = π 0 1 N3 GN τrep = ca2 ζ 2 12 24 Ne (3.18) en prenant G0N, le module élastique tel que G0N = kB T C/(2Ne ) et τrep comme dans l'équation 3.17. Pour prédire le comportement rhéologique d'une solution de polymères en régime semidilué, il suffit de faire la correspondance entre la chaîne idéale d'un polymère fondu et la chaîne effective d'une solution dans le régime semi-dilué. La chaîne est vue comme un enchaînement de Nblob blobs de taille ξ, comportant chacun gblob monomères. Dans ce cas : 3.3. 3.3 Rappels théoriques sur les solutions de polyélectrolytes Dans cette partie, nous rassemblons quelques résultats théoriques permettant de décrire les solutions de polymères chargés. Les propriétés des polyélectrolytes sont moins bien établies que celles des polymères neutres. L'ajout de charges fixes sur les chaînes complique les interactions du couple polymère-solvant. Néanmoins, de nombreux travaux s'attachent à décrire les propriétés des polyélectrolytes. Sans chercher à être exhaustif, nous nous limitons ici à en résumer les principaux résultats et renvoyons le lecteur à la revue de Dobrynin et al. (85). L'ensemble de ces travaux permettent de prédire les tailles d'objets en solution, les concentrations critiques de recouvrement et d'enchevêtrement, en présence ou non de charges libres en solution, ainsi que les lois d'échelle qui prédisent l'évolution de la viscosité dans les différents régimes de concentration : dilué, semi-dilué non-enchevêtré et semi-dilué enchevêtré. Les interactions électrostatiques entre charges mènent à un comportement riche et différent des solutions de polymères non-chargés. On comprend aisément qu'une faible quantité de charges sur la chaîne suffit à modifier fortement sa conformation. La présence de charges induit un gonflement des pelotes dû aux répulsions électrostatiques entre monomères chargés. On s'attend à avoir un rayon de giration plus grand et une concentration critique de recouvrement plus petite que ceux calculés pour un polymère neutre. 3.3.1 Condensation des contre-ions sur la chaîne : théorie de Manning (1) La conformation des chaînes résulte de la minimisation de l'énergie d'interaction entre les monomères, qui sont soumis à l'agitation thermique et aux répulsions électrostatiques 66 entre monomères chargés. Du fait de la forte répulsion intramoléculaire entre les charges , les chaînes devraient prendre une conformation globalement étirée. Cependant, cette conform ation a un coût entrop ique important et n'est donc pas favorisée . Lorsque le taux de charge est élevé, en d'autres termes que la distance entre charges b est inférieure à la longueur de Bjerrum, lB, les contre-ions se condensent sur la chaîne pour former des paires d'ions. La longueur de Bjerrum lB = e2 /(4πkB T ) correspond à la distance à laquelle l'interaction électrostatique entre charges est égale à l'agitation thermique kB T dans un milieu de perméabilité. Dans l'eau, on a lB ≈ 7 Å. On assiste à la condensation des contre-ions si le gain d'énergie est plus important que la perte d'entropie associée aux contre-ions condensés. Manning introduit le paramètre d'interaction u tel que u = lB /b avec b, la distance entre deux charges voisines, b = a/f : u= lB f. a (3.21) Le polyacrylamide partiellement hydrolysé est un polyélectrolyte. Nous nous intéressons à deux polyacrylamides de grande masse molaire moyenne en masse : 2×105 g/mol et 8×106 g/mol. Il contient une fraction f de groupements ioniques d'environ 10% pour le polymère de masse molaire 2×105 g/mol et 25% pour le polymère de masse molaire 8×106 g/mol. Nous obtenons u=0.18 et 0.44 pour des polymères de masse molaire respectives 2×105 et 8×106 g/mol. Dans les deux cas, u est inférieur à 1. Les chaînes sont dites faiblement chargées et les contre-ions restent libres en solution. Il n'est pas nécessaire de définir une fraction de monomères chargés effective f ∗, qui prenne en compte la condensation des contre-ions. 3.3.2 Régimes de concentration Figure 3.4 – Régime de concentration des solutions de polyélectrolytes Dans les solutions de polyélectrolytes, on définit la concentration critique de recouvrement C ∗ et la concentration d'enchevêtrement Ce qui délimitent le régime dilué du régime semi-dilué non-enchevêtré et semi-dilué enchevêtré, comme schématisé sur la figure 3.4. Du fait d'une forte extension spatiale des chaînes, C ∗ est très faible. Pour C > C ∗, les pelotes se recouvrent mais la concentration à l'intérieur des pelotes est trop faible pour 3.3. solutions tes que les chaînes s'enchevêtrent. En régime semi-dilué, les chaînes suivent une dynamique non-enchevêtrée sur une grande gamme de concentration. Dans les solutions de polyélectrolytes, la frontière entre le régime dilué et semi-dilué enchevêtré s'étend sur plusieurs ordres de grandeur en concentration (85). La description en termes de chaîne de blobs est valable pour C > C ∗ dans les solutions de polymères neutres. Enfin, les chaînes de polyélectrolytes peuvent être décrites comme des chaînes de blobs électrostatiques en régime dilué, pour des concentrations largement plus faibles, i.e. pour C < C ∗ < Ce. On introduit donc Ce, la concentration d'enchevêtrement. 3.3.3 Le régime dilué Deux types de comportements sont à distinguer en fonction de la longueur de la chaîne (voir figure 3.5). Figure 3.5 – Représentation schématique de pelotes de polyélectrolytes en régime dilué et semidilué et leurs dimensions caractéristiques 3.3.3.1 Le cas des chaînes courtes En régime dilué, P.-G. de Gennes (86) propose une loi d'échelle pour une chaîne de polyélectrolytes, à partir du modèle de Flory. On considère une chaîne isolée de N monomères avec f la fraction de monomères chargés, entourée par ses contre-ions. La chaîne polyélectrolyte a une conformation étirée longitudinalement sur une distance RF lory et transversalement sur R = aN 1/2, comme dans le cas d'une chaîne idéale. On a : 1/3 RF lory ≈ aN (uf 2 )1/3 ln N (uf 2 )2/3 (3.22) 68 Cette formule est valable si le nombre de monomères par chaîne n'est pas trop grand, i.e. la condition N < Nmax = u−2/3 f −4/3 exp(u−1/3 f −2/3 ) avec Nmax, le nombre de monomères maximum par chaîne, doit être respectée. Nous obtenons N < Nmax =2.65×105, d'où RF lory = 212×10−9 m et N > Nmax =2.98×102 monomères par chaîne pour les HPAM de masse molaire respective 2×105 et 8×106 g/mol. 3.3.3.2 Le cas des chaînes longues Lorsque les chaînes sont longues et ne respectent pas le critère précédent, elles prennent une conformation locale en blobs électrostatiques. Dans chaque blob de taille ξe, l'énergie d'interaction entre les monomères est minimisée et l'agitation thermique est égale à la 1/2 répulsion électrostatique entre monomères chargés. On peut prendre ξe ∝ agblob pour un polymère en solvant θ, avec gblob le nombre de monomères dans un blob tel que : gblob ≈ (uf 2 )−2/3. (3.23) ξe ≈ a(uf 2 )−1/3.
36,886
60/tel.archives-ouvertes.fr-tel-02648627-document.txt_15
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,615
12,073
- pour cette assimilation 980. En ce sens, tout opérateur économique, en tant qu'il offre des biens et des services sur le marché 981, est une entreprise 982. Dans le même sillage, la professeure H. Hoepffner soutient que constitue un opérateur économique, « toute entreprise qui exerce une activité économique indépendamment de son statut juridique et de son mode de financement » 983. Si les deux notions présentent indéniablement des similarités, elles n'ont toutefois pas vocation à se confondre. Elles se différencient d'abord par leur spécialité qui délimite leur champ de compétence matérielle. En effet, l'entreprise, sujet privilégié du droit de la concurrence 984, est une notion circonscrivant son champ d'application, ne se confond pas à l'opérateur économique, élément de détermination du champ d'application du droit de la commande publique 985. Deuxièmement, force est toutefois de constater la sacralisation de la notion d'opérateur économique par le droit national alors même que l'article 1er § 8 de la directive 2004/18 cantonnait le terme à un rôle de simplification. En effet, c'est la diversité des termes désignant le candidat à un marché public 986 qui a conduit les rédacteurs de la directive à proposer un terme générique sans aucune volonté affichée de lui accorder une force juridique987. Toutefois, la rapidité avec laquelle le terme a trouvé sa place dans les marchés publics 988, puis dans les concessions 989 permet d'affirmer qu'il apportait au 980 CJCE, 23 avril 1991, aff. C-41/90, Höfner et Elser c/ Macrotron, préc., point 21 ; CJCE, 16 mars 2004, aff. jtes C-264/01, C-306/01, C-354/01 et C-355/01, AOK-Bundesverband e. a., Rec. I-2493, point 46. 981 CJCE, 16 juin 1987, aff. 118/85, Commission c/ Italie, Rec. 2599 ; cette définition de l'activité économique est fréquemment rappelée, notamment dans les arrêts : CJCE, 18 juin 1998, aff. C-35/96, Commission c/ Italie, Rec. I-3851 ; CJCE, 12 septembre 2000, aff. jtes C-180/98 à C-184/98, Pavolov, Rec. I-6451. 982 M. KARPENSCHIF, « L'association, opérateur économique au sens du droit des marchés publics », CP-ACCP, août 2007, n° 68, p. 40. 983 H. HOEPFFNER, Droit des contrats administratifs, op. cit., p. 115. 984 Avocat général P. MADURO, conclusions sur CJCE, 11 juillet 2006, Fenin c/Commission, aff., C-205/03P, présentées le 10 novembre 2005 : « La définition de l'entreprise est indispensable pour dégager un critère clair afin de déterminer quelle est la ligne de césure pour l'application des règles de concurrence ». 985 S. NICINSKI, Droit public des affaires, op. cit., p. 555 ; M. KARPENSCHIF, « L'association, opérateur économique au sens du droit des marchés publics », art cit. 986 987 La directive é nonce les termes « entrepreneur », « fournisseur » et « prestataire de services » auxquels on peut ajouter les termes nationaux de personne publique et personne privée qu'on retrouve dans le Code de 2001 et 2004. M. AUVRAY, « La notion d'opérateur économique en droit des contrats publics », Revue Lamy de la Concurrence, 1 octobre 2008, vol. 17, p. 68-80 : « Tel semble donc être, a priori, l'unique destination de ce terme nouveau, à savoir accompagner, au plan terminologique, la refonte des trois précédentes directives marchés public ». 988 Voir des marchés publics de 2006. 989 Article 12 de l'ordonnance "Concessions" ainsi que le décret du 1er février 2016 relatif aux contrats de concession. une solution concrète à l'hétérogénéité des termes désignant une entité susceptible d'être intéressée par une concession. Pourtant, faut-il le rappeler, l'opérateur économique reste, d'un point de vue utilitariste du moins, un terme générique qui n'offre pas d'autres avantages en dehors de celui de servir de ligne démarcation du champ d'application du droit de la commande publique à une entité. Aussi, a-t-elle su se diversifier en admettant au sein de cette catégorie générique des « sous-notions » 990 beaucoup plus aptes à situer l'entité dans les différentes étapes de la procédure. C'est ainsi que les notions de candidat et de soumissionnaire "spécialisent" l'opérateur économique en apportant une précision louable quant à son avancement dans la procédure d'attribution de la concession. Outre son intérêt pratique, la définition du candidat et du soumissionnaire permet de rendre compte de la compatibilité de ces derniers avec la révolution contentieuse introduite par la jurisprudence Département de Tarn-et-Garonne 991. En effet, l'ouverture à l'ensemble des tiers d'un recours en contestation de la validité du contrat administratif par la voie du recours de pleine juridiction a logiquement posé la problématique de l'identification des requérants. La Haute juridiction administrative a balisé le terrain de l'identification des requérants en distinguant les « tiers ordinaires » des « tiers privilégiés » et des « tiers évincés ». Toutefois, en l'état de la jurisprudence, les notions de soumissionnaire et de candidat ne correspondent pas parfaitement à celle de tiers évincé et de tiers ordinaire. En effet, dans son avis contentieux Société Gouelle rendu le 11 avril 2012 le fondement de l'article L. 113-1 du Code de justice administrative, Conseil d'État a retenu une conception large de la notion de concurrent évincé dégagé par l'arrêt Société Tropic Travaux Signalisation 992. Pour le Conseil d'État, a la qualité de 990 En référence à l'hypothèse développée par B. SEILLER dans une communication : B. SEILLER, « Les limites de la simplification », Les Petites Affiches, 24 mai 2007, vol. 104, p. 28-35. : « Je ne force guère mon goût pour la provocation en affirmant que la faiblesse du droit contemporain réside non dans son hermétisme terminologique mais [] dans son incapacité à inventer de nouveaux concepts pour définir de nouvelles notions ou accompagner l'inéluctable processus d'affinement au sein des notions classiques par l'émergence de « sous-notions ». 991 CE, Ass., 4 avril 2014, Département de Tarn-et-Garonne ; Rec. CE 2014, p. 70, concl. B. DACOSTA ; JCP G 2014, doctr. 913, chron. G. ÉVEILLARD ; Contrats-Marchés publ. 2014, repère 5, obs. F. LLORENS et P. SOLER-COUTEAUX ; Contrats-Marchés publ. 2014, étude 5, note P. REES ; Dr. adm. 2014, comm. 36, note F. BRENET ; JCP A 2014, act. 325, note M. TOUZEIL-DIVINA ; JCP A 2014, 2152, note J.-F. SESTIER ; JCP A 2014, 2153, note S. HUL ; JCP E 2014, 1228, note C. PRÉBISSY-SCHNALL ; Procédures 2014, alerte 26, focus M.-C. ROUAULT ; GAJA, préc., n° 116. 992 CE, Ass., 16 juillet 2007, n° 291545, Société Tropic travaux signalisation ; Rec. CE 2007, p. 360 ; Contrats-Marchés publ. 2007, repère 8, F. LLORENS et P. SOLER-COUTEAUX ; comm. 254, note J.-P. PIETRI. / - 292 - conçurent évincé « tout requérant qui aurait eu intérêt à conclure le contrat, alors même qu'il n'aurait pas présenté sa candidature, qu'il n'aurait pas été admis à présenter une offre ou qu'il aurait présenté une offre inappropriée, irrégulière ou inacceptable » 993. Cette notion engloberait dans l'hypothèse des concessions la qualité de soumissionnaire et de candidat. Cette opinion n'emporte pas conviction puisque tous les contrats conclus conformément aux dispositions de l'ordonnance du 29 janvier 2016 relative aux contrats de concession sont par principe soumis aux règles contentieuses dégagées par la jurisprudence Département de Tarn-et-Garonne qui limite expressément son application aux tiers susceptibles d'être lésés dans leurs intérêts de façon suffisamment directe et certaine par la passation du contrat ou l'une de ses clauses. Certains auteurs ont fait remarquer que « cette conception nouvelle de l'intérêt à agir apparaît [] difficilement compatible avec la possibilité pour une entreprise n'ayant pas présenté sa candidature ou ayant déposé une candidature irrégulière de justifier d'un intérêt lésé, fermant ainsi la voie à ces sociétés d'une action qui leur avait été ouverte par la jurisprudence Tropic » 994. De ce fait, la notion de soumissionnaire, défini à l'article 12 de l'ordonnance Concessions comme « l'opérateur économique qui présente une offre dans le cadre d'une procédure de passation d'un contrat de concession » semble correspondre à la nouvelle conception du tiers évincé 995. 2. La conception globalisante de la notion d'opérateur économique L'activité économique constitue le centre névralgique de l'identification de l'opérateur économique. En effet, si cette dernière, tout comme la notion d'entreprise, fait référence au caractère organique d'une entité, sa définition passe en réalité par la qualification matérielle de son activité 996. Le juge européen a structuré le processus d'identification de l'opérateur économique en peaufinant sa jurisprudence par un double mouvement simultané de conceptualisation. 993 CE, avis, 11 avril 2012, n° 355446, Société Gouelle, Rec. CE 2012, p. 148 ; Contrats-Marchés publ. 2012, comm. 164, Dr. adm. 2012, comm. 64, F. BRENET. 994 995 E. LANZARONE et C. RUDLOFF, « L'action indemnitaire des tiers », Contrats et Marchés publics, 1 avril 2016, vol. 4, p. 19-22. Il n'est cependant pas impossible que la notion de tiers évincé soit étendue à une partie de la catégorie de candidat que l'ordonnance définit comme « l'opérateur économique qui demande à participer ou est invité à participer à une procédure de passation d'un contrat de concession ». 996 M. AUVRAY, « La notion d'opérateur économique en droit des contrats publics », art cit. En premier lieu, il a adopté une conception libérale du critère organique qui a eu pour conséquence l'anéantissement de l'impact de la forme juridique de l'entité dans la définition de l'opérateur économique. Cette entreprise est forte de sens d'autant plus que l'opérateur économique, qu'il soit simple candidat ou soumissionnaire, est susceptible de se décliner en une multitude d'entités aux formes juridiques tout aussi diversifiées qu'originales. Il est de ce fait habituel de trouver, à côté des formes d'opérateurs économiques privés classiques 997, diverses formes juridiques telles que les associations 998, de groupement d'opérateurs économiques sous n'importe quelle forme 999. Est également qualifiée d'opérateur économique une société en cours de formation dont le projet est suffisamment avancé de sorte à permettre au concédant d'apprécier, au plus tard à la date limite de dépôt des candidatures, ses garanties professionnelles et financières 1000. Les personnes publiques peuvent également, sous certaines conditions, être des opérateurs économiques. Précisons que s'agissant du principe même de la candidature des personnes publiques à un contrat public, la Cour de justice a, par une décision du 18 décembre 2014 1001, affirmé que si « la possibilité de participation d'organismes publics à des marchés publics (ou concessions) » est reconnue de longue date tant par les directives 1002 que par sa propre jurisprudence 1003, celle-ci n'est pas automatique. En effet, 997 On peut citer, sans prétendre à l'exhaustivité, les entrepreneurs, les fournisseurs, les prestataires, les sociétés (nationales ou étrangères), les sociétés d'économie mixte (locale, ou à opération unique) 998 CJCE, 29 novembre 2007, Commission c/ Italie, aff. C-119/06, points 37 à 41 ; CJCE, 12 septembre 2000, Pavlov e.a., C-180/98 à C-184/98, point 117 ; CJCE, 16 novembre 1995, Fédération française des sociétés d'assurance e.a., C-244/94, point 21. En droit interne : CAA Lyon, 18 avr. 2013, Commune de Saint-Nectaire ; n° 12LY01547, Contrats-Marchés publ. 2013, comm. 168, note G. ECKERT. Sans préjudice pour le concédant d'exiger du groupement d'opérateurs économique attributaire de la concession de revêtir une forme juridique déterminé. Voir article 24 du décret du 1er février 2016 relatif aux contrats de concession. 999 1000 CE, 19 décembre 2012, SARL Labhya c/ Département de l'Aveyron : n° 354873, Contrats-Marchés publ. 2013, comm. 40, note ECKERT ; RJEP 2013, comm. 30, note F. BRENET. 1001 CJUE, 18 décembre 2014, aff. C-568/13, Azienda Ospedaliero-Universitaria di Careggi-Firenze, Contrats-Marchés publ. 2015, point 30 à 38, comm. 37, note G. ECKERT. 1002 CJUE, 18 décembre 2014, Azienda Ospedaliero-Universitaria di Careggi-Firenze, préc., point 33 : « La possibilité de participation d'organismes publics à des marchés publics, parallèlement à la participation d'opérateurs économiques privés, ressort déjà clairement du libellé de l'article 1er, sous c), de la directive 92/50 , selon lequel le « prestataire de services » est toute personne physique ou morale, y inclus un organisme public, qui offre des services ». 1003 CJCE, 18 novembre 1999, Teckal Sarl, aff. C-107/98, point 51 ; CJCE, 7 décembre 2000, ARGE Gewässerschutz, aff. C-94/99, point 40 ; CJUE, 23 décembre 2009, Consorzio Nazionale Interuniversitario per le Scienze del Mare (CoNISMa) c/ Regione Marche, aff. C-305/08, point 38 ; CJUE, 19 décembre 2012, / - 294 - elle précise en sus que c'est aux États qu'il revient la faculté d'habiliter ou non les entités publiques à agir comme opérateurs économiques et à fourni r des prestations sur un marché. Cette approche européenne fait écho à celle du juge national sans que les deux conceptions ne s'imbriquent parfaitement. En effet, il est contant en droit interne depuis l'arrêt du 16 octobre 2000 Compagnie méditerranéenne d'exploitation des services d'eau 1004 et l'avis contentieux Société JeanLouis Bernard consultants 1005 du 8 novembre 2000 rendus par le Conseil d'État que le principe de la liberté du commerce et de l'industrie ne fait pas obstacle, par lui-même, à ce qu'un établissement public se porte candidat à l'obtention d'une délégation de service public proposée par une collectivité territoriale. Ce glissement du principe de nonconcurrence entre les activités publiques et privées vers un principe d'égale concurrence entre les opérateurs économiques privés et publics conduit à ce que le respect du principe de la liberté du commerce et de l'industrie se double d'une seconde conception qui est celle de l'égalité des conditions de concurrence entre personne publique et personne privée. La décision d'assemblée du Conseil d'État Ordre des avocats au Barreau de Paris du 31 mai 2006 est venue systématiser les règles auxquelles sont soumises les personnes publiques lorsqu'elles entendent, indépendamment de leurs missions de service , prendre en charge une activité économique. Celles-ci sont assujetties au respect du principe de spécialité et doivent justifier d'un intérêt public avec l'obligation de ne pas fausser le libre jeu de la concurrence par rapport aux autres opérateurs agissant sur le même marché 1006. L'important arrêt Société Armor SNC 1007 rendu en assemblée par la Haute juridiction administrative a clarifié les conditions spécifiques pour qu'une personne publique se porte candidate à l'attribution d'un contrat de la commande publique en Azienda Sanitaria Locale di Lecce et Università del Salento c/ Ordine degli Ingegneri della Provincia di Lecce e.a, aff. C-159/11, point 26. 1004 CE, 16 octobre 2000, Compagnie méditerranéenne d'exploitation des services d'eau : n° 212054 ; Rec., p. 422 ; AJDA 2001, p. 662, note A. 1005 CE, avis, 8 novembre 2000, Société Jean-Louis Bernard consultants, n° 222208 ; Rec., p. 492 ; RFDA 2001, p. 112, concl. C. BERGEAL ; Contrats-Marchés publ. 2001, comm. 8 ; CJEG 2001, p. 58, note M. DEGOFFE et J.-D. DREYFUS ; JCP G 2000, act. 2106 ; AJDA 2000, p. 1066. 1006 CE, Ass., 31 mai 2006, Ordre des avocats au barreau de Paris, n° 275531 ; Rec. CE 2006, p. 272 ; AJDA 2006, p. 1592, chron. C. LANDAIS et F. LÉNICA ; RFDA 2006, p. 1046, concl. D. CASAS. 1007 CE, Ass., 30 décembre 2014, Société Armor SNC, n° 355563 ; JCP A 2015, p. 2030, note PAULIAT ; Contrats-Marchés publ. 2015, comm. 36, obs. L. de FOURNOUX ; Dr. adm. 2015, comm. 27, note BRENET ; AJDA 2015, p. 449, chron. LESSI et DUTHEILLET DE LAMOTHE ; RFDA 2015, p. 57, concl. DACOSTA. / - 295 - abandonnant la jurisprudence Département de l'Aisne 1008 qui posait le principe selon lequel « la simple candidature d'une personne publique, dans le respect des règles de la concurrence, à l'attribution d'un marché public, n'est pas subordonnée [] à l'existence d'un intérêt public ». Comme l'a fait remarquer un auteur 1009, l'exigence de l'intérêt public local dans la prise en charge d'activités économiques par les personnes publiques tout comme dans leur faculté à candidater à un contrat de la commande publique n'aboutit pas à une symétrie notionnelle parfaite tant en termes de consistance que des effets juridiques ; ce qui tend à confirmer la spécificité inhérente à la candidature des personnes publiques par rapport à leur intervention économique. En second lieu, il s'est agi de consacrer la fonction structurante de l'activité économique dans l'identification de l'opérateur économique. Structurante, parce qu'elle conditionne à elle seule, indépendamment des autres modalités, la qualité d'opérateur économique. Le juge administratif, actant de son accord avec le juge européen, l'illustre parfaitement dans son avis du 23 octobre 2003, Fondation Jean-Moulin, lorsqu'il déduit le défaut de qualité d'opérateur économique des organismes de gestion de prestations d'action sociale au bénéfice des fonctionnaires territoriaux du caractère non marchand de leur activité 1010. Autrement dit, il ne saurait y avoir opérateur économique sans activité économique. La fonction structurante de l'activité nécessite de résoudre la délicate problématique relative à la délimitation de son champ. Une tentative a consisté à circonscrire l'activité économique en la définissant. Ainsi, une première définition a été proposée par l'article 53 de l'ordonnance n° 86-1243 du 1er décembre 1986 relative à la liberté des prix et de la concurrence, codifié à l'article L. 410-1 du Code de commerce qui la définit comme toute activité « de production, de distribution et de services, y compris celles qui sont le fait de personnes publiques, notamment dans le cadre de conventions de délégation de service public » 1011. Toutefois, cette définition 1008 CE, 10 juillet 2009, Département de l'Aisne : n° 324156 ; mentionné aux tables du Recueil Lebon ; Contrats-Marchés publ. 2009, comm. 270, note G. ECKERT ; Dr. adm. 2009, comm. 126, note G. MARSON ; AJDA 2009, p. 2006, note J.-D. DREYFUS ; RFDA 2010, p. 146, note G. CLAMOUR. 1009 J.-B. MOREL, « Le Conseil d'État se prononce sur la portée de la libre négociation en matière de délégation de service public », AJDA, 6 novembre 2006, vol. 37, p. 2064-2067. 1010 CE, avis, Ass. gén., 23 octobre 2003, Fondation Jean-Moulin, n° 369315, Contrats Marchés publ. avril 2004, p. 33 ; ACCP juin 2004, p. 74, comm. E. FATÔ ME et L . RI CHER : « La qualification d'action sociale ne peut être reconnue [] que si, par leur contenu, elles présentent des caractéristiques garantissant leur vocation sociale et les distinguant des prestations à caractère purement marchand ». 1011 Dernier membre de phrase ajouté par article 6 de la loi n° 95-127 du 8 février 1995 relative aux marchés publics et aux délégations de service public, J.O. 9 février ; MTP 17 février 1995, Suppl. TO, p. 304. / - 296 - française de l'activité économique s'est révélée insuffisante et a été supplantée par la définition issue de la jurisprudence européenne. Celle-ci définit l'activité économique comme « toute activité consistant à offrir des biens ou des services sur un marché » 1012. Cependant, la difficulté à déterminer les contours de la notion a invité à un changement de paradigme. Désormais, il s'agit moins de délimiter le champ matériel de l'activité économique, que d'admettre son aptitude à s'infiltrer dans tous les domaines d'activités. Cette conception large de l'activité économique tire son fondement de l'interprétation restrictive des activités non économiques 1013. Ici encore, le rapprochement des notions d'opérateur économique et d'entreprise apparaît clairement, autour de la notion d activité économique sans pour autant conduite à leur assimilation 1014. Une fois la qualité d'opérateur économique reconnue à une entité, celle-ci est soumise aux règles d'examen des candidatures. B. Le réajustement des conditions de sélection des candidatures La possibilité de candidater est d'abord conditionnée par le fait que l'opérateur économique ne soit frappé qu'aucun motif d'exclusion de la procédure (1). C'est dans un second temps que sont pris en compte les niveaux de capacité de chaque candidat (2). 1. L'absence préalable de motifs d'exclusion : la diversité des interdictions à soumissionner opposables au candidat L'ordonnance n° 2016-5 du 29 janvier 2016 établit dans le sillage de la directive « concessions » un régime spécifique d'interdiction de soumissionner qui s'avère plus complet et détaillé que les anciennes règles nationales 1015. Elle distingue les interdictions « obligatoires et générales », des interdictions obligatoires propres aux concessions de 1012 CJCE, 12 septembre 2000, Pavlov e.a., C-180/98 à C-184/98, point 117. 1013 L. IDOT, « La notion d'entreprise en droit de la concurrence, révélateur de l'ordre concurrentiel » dans L'ordre concurrentiel : Mélanges en l'honneur d'Antoine Pirovano, Paris, Frison-Roche, 2003, p. 688. 1014 CJUE, 23 décembre 2009, Consorzio Nazionale Interuniversitario per le Scienze del Mare (CoNISMa) contre Regione Marche, aff., C-305/08, points 35, 42 et 43. Voir aussi CJUE, 19 décembre 2012, Azienda Sanitaria Locale di Lecce et Università del Salento contre Ordine degli Ingegneri della Provincia di Lecce e.a., aff., C-159/11. 1015 Originellement, la loi du 29 janvier 1993 n'instituait pas d'interdiction de soumissionner en matière de délégation de service public. Elles ont été consacrées pour la première fois dans cette catégorie contractuelle par l'article 8 de l'ordonnance du 6 juin 2005. Cette règlementation n'a été rendue applicable que neuf ans plus tard par l'article 16 de la loi du 14 août 2014 pour l'égalité réelle entre les femmes et les hommes. - défense et de sécurité 1016 et des interdictions « facultatives » de soumissionner. En cela, elle acte de l'harmonisation de la nomenclature avec les règles qui encadrent la candidature aux marchés publics et qui figurent aux articles 45 et suivant de l'ordonnance n° 2015-899 du 23 juillet 2015 relative aux marchés publics. Ces différentes catégories peuvent être complétées, sous l'empire du droit national, par de nouvelles interdictions de soumissionner 1017. L'article 39 1° de l'ordonnance du 29 janvier 2016 énumère les interdictions générales de soumissionner qui imposent à l'autorité délégante d'exclure de la procédure de passation les personnes 1018 ayant commis un certain nombre d'infractions prévues au Code pénal ainsi que le recel de telles infractions. Il s'agit, sans prétendre à aucune exhaustivité, de la participation à une association de malfaiteurs 1019, de corruption au sens large 1020, d'abus de confiance 1021, d'escroquerie et infractions voisines 1022, de faux et usage de faux 1023, de trafic de stupéfiants 1024, de blanchiment d'argent 1025 et de financement du terrorisme 1026. Précisons que cette interdiction est inapplicable dans le cadre des contrats de concession de défense et de sécurité. Sont également exclus de la procédure de passation les candidats qui ont été définitivement condamnés pour des infractions pénales relatives au recouvrement de l'impôt 1027. Dans les cas susmentionnés, la condamnation définitive pour ces incriminations entraîne, de droit, l'exclusion automatique pour une durée de cinq ans à compter du prononcé de la condamnation de l'opérateur économique de toute la procédure de passation. 1016 Ces interdictions prévues à l'article 40 de l'ordonnance du 29 janvier 2016 ne front l'objet d'une analyse spécifique dans le cadre cette thèse. 1017 CJUE, 23 décembre 2009, aff. C-376/08, Serrantoni, Contrats-Marchés publ., 2010, comm. 62, W. ZIMMER. 1018 L'article 44 de l'ordonnance règle les conséquences des interdictions sur les candidatures groupées. 1019 Article 450-1 du Code pénal. 1020 Articles 432-10, 432-11, 433-1, 433-2, 434-9, 434-9-1, 435-3, 435-4, 435-9, 435-10, 445-1 à 445-2-1 du Code pénal. 1021 Article 314-1 du Code pénal. 1022 Articles 313-1 et 313-3 du Code pénal. 1023 Articles 421-1 à 421-2-4 ; 441-1 à 441-7 du Code pénal. 1024 Articles 222-34 à 222-40 du Code pénal. 1025 Articles 324-1, 324-5, 324-6 du Code pénal. 1026 Articles 225-4-1 et 225-4-7 du Code pénal. 1027 Articles 1741 à 1743, 1746 ou 1747 du Code général des impôts. Conformément à l'article 39°2 de l'ordonnance du 29 janvier 2016, sont pareillement frappés par une interdiction de soumissionner les opérateurs économiques qui « n'ont pas souscrit les déclarations leur incombant en matière fiscale ou sociale ou n'ont pas acquitté les impôts, taxes, contributions ou cotisations sociales exigibles dont la liste est fixée par voie règlementaire ». Cette interdiction automatique admet des dérogations fondées sur la mise en oeuvre par l'opérateur économique de mesures d'autoapurement 1028 avant la date à laquelle l'autorité concédante se prononce sur la recevabilité de leur candidature. Sont aussi concernés par cette interdiction les candidats qui sont en situation de liquidation judiciaire. S'agissant du candidat en situation de redressement judiciaire, il a la possibilité de participer à la passation s'il démontre être détenteur d'une habilitation à agir durant la durée prévisible de la concession 1029. En outre, les candidats ayant été sanctionnés pour méconnaissance de la législation du travail 1030 sont également frappés d'une interdiction de soumissionner. Toujours dans le cadre de la législation du travail, l'article 39 4°, b) et c) élargit l'interdiction d'une part, aux candidats qui, à la date du « 31 décembre de l'année précédant celle au cours de laquelle a lieu le lancement de la procédure de passation du contrat de concession, n'ont pas mis en oeuvre l'obligation de négociation prévue à l'article L. 2242-5 du Code du travail », et d'autre part, à ceux qui ont été condamnés au titre du 5° de l'article 131-39 du Code pénal ou qui sont des personnes physiques condamnées à une peine d'exclusion des marchés publics 1031. 1029 Article 39 alinéa 3, a), b, et c) de l'ordonnance du 29 janvier 2016. 1030 Spécifiquement, les candidats sanctionnés au titre des articles L. 8221-1, L. 8221-3, L. 8221-5, L. 8231-1, L. 8241-1, L. 8251-1 et L. 8251-2 du code du travail. Sont aussi concerné par cette interdiction les personnes condamnées au titre de l'article L. 1146-1 du code du travail ou de l'article 225-1 du code pénal. 1031 L'ordonnance précise dans ce dernier cas que l'interdiction ne s'applique pas « lorsque la peine d'exclusion des marchés publics a été prononcée pour une durée différente fixée par une décision de justice définitive, le présent cas d'exclusion s'applique pour une durée de 3 ans à compter de la date de la décision ou du jugement ayant constaté la commission de l'infraction ». - application de l'article 132-21 du Code pénal ou des articles 702-1 ou 703 du Code de procédure pénale. De la même manière, l'interdiction ne s'applique pas si l'opérateur économique établit qu'il n'a pas fait l'objet d'une peine d'exclusion des marchés publics inscrite au bulletin n° 2 du casier judiciaire en application de l'article 775-1 du Code de procédure pénale, qu'elle a régularisé sa situation, qu'elle a réglé l'ensemble des amendes et indemnités dues, qu'elle a collaboré activement avec les autorités chargées de l'enquête, qu'elle a, le cas échéant, réalisé ou engagé la régularisation de sa situation au regard de l'obligation de négociation de l'article L. 2242-5 du Code du travail, et, enfin, qu'elle a pris des mesures concrètes de nature à prévenir la commission d'une nouvelle infraction pénale ou d'une nouvelle faute. Cette dernière dérogation est élargie aux opérateurs économiques qui font l'objet d'une mesure d'exclusion des contrats administratifs en vertu d'une décision administrative prise en application de l'article L. 8272-4 du Code du travail 1032. L'ordonnance n° 2016-65 du 29 janvier 2016 permet pour la première fois, dans des hypothèses très strictement encadrées, de déroger à l'ensemble des interdictions obligatoires de soumissionner. En effet, son article 41, mettant en oeuvre le point 6 de l'article 38, de la directive du 26 février 2014 1033, énonce que « les autorités concédantes peuvent, à titre exceptionnel, autoriser un opérateur économique qui serait dans un cas d'interdiction de soumissionner [] à participer à la procédure de passation du contrat de concession, à condition que cela soit justifié par des raisons impérieuses 'intérêt général, que le contrat de concession en cause ne puisse être confié qu'à ce seul opérateur économique et qu'un jugement définitif d'une juridiction d'un État membre de l'Union européenne n'exclut pas expressément l'opérateur concerné des contrats de concession ». Il reste, comme l'a fait remarquer la doctrine, que l'ordonnance s'est orientée vers une conception restrictive des éléments constitutifs de la dérogation 1034. Quant à l'article 42 de l'ordonnance, il établit les cas d'interdiction de soumissionner « facultatives ». Il mentionne quatre hypothèses dans lesquelles une autorité concédante pourra écarter un candidat à un contrat de concession sans même examiner sa candidature ou son offre. 1033 « Les États membres peuvent prévoir une dérogation à l'exclusion obligatoire () pour des raisons impératives relevant de l'intérêt public telles que des raisons liées à la santé publique ou à la protection de l'environnement » ou « lorsqu'une exclusion serait manifestement disproportionnée ». 1034 G. ECKERT, « Passation des délégations de service public : procédure issue de l'ordonnance n° 2016-65 du 29 janvier 2016 », JurisClasseur Administratif, janvier 2017, paragr. 119. - 300 - à leurs obligations contractuelles lors de l'exécution d'un précédent contrat », des candidats dont la participation à la procédure est incompatible avec le principe d'égalité de traitement en raison « de leur volonté d'influer indûment le processus décisionnel, de leur connaissance d'informations susceptibles de créer une distorsion de concurrence », de la conclusion d'une entente, ou de l'existence d'une situation de conflit d'intérêts. Ces interdictions de soumissionner sont « facultatives » au sens où, contrairement aux interdictions de soumissionner « obligatoires », un opérateur économique qui se trouverait dans une telle situation n'est pas obligatoirement exclu de la procédure de passation de la concession. Cette interdiction reste à la discrétion de l'autorité concédante. Il lui appartient également une fois qu'elle décide d'exclure l'opérateur économique de vérifier que l'exclusion est justifiée et proportionnée à la gravité des faits. 2. L'examen approfondi des candidatures La sélection des candidats est le résultat de la prise en compte d'un ensemble de critères visant à s'assurer des aptitudes techniques et professionnelles des candidats d'une part, et des garanties financières et économiques nécessaires à la réalisation de cette typologique de prestations contractuelles d'autre part 1035. Le processus répond désormais, sous l'impulsion des directives européennes et du juge administratif 1036, à une volonté d'objectivisation de l'analyse des conditions qui doivent être « liées et proportionnées à l'objet du contrat de concession ou à ses conditions d'exécution » 1037. L'autorité concédante peut, en fonction de l'objet du contrat de concession, fixer des niveaux minimaux de capacité qu'elle précise dans l'avis de concession ou, en l'absence d'un tel avis, dans un autre document de la consultation 1038. En revanche, l'autorité concédante ne saurait faire usage de critères non communiqués pour écarter la candidature d'un opérateur économique. Nonobstant ces limites, l'autorité concédante jouit d'une marge d'appréciation significative dans l'appréciation des capacités techniques et professionnelles des candidats. Celle-ci intégrant nécessairement une part de subjectivité, 1035 O. DIDRICHE, « Les nouvelles règles en matière de passation des contrats de concession », AJCT , 2016, p. 243-248. 1036 CE, 14 décembre 2009, Commune de La Roche-sur-Yon, n° 325830 ; BJCP 2010, p. 98, concl. B. DACOSTA ; Contrats-Marchés publ. 2010, comm. 87, obs. G. ECKERT. 1037 L'article 21 du décret du 1er février 2016 précise l'article 45 I de l'ordonnance du 29 janvier 2016 en énonçant que l'autorité concéd « ne peut exiger des candidats que des renseignements et documents non discriminatoires et proportionnés à l'objet du contrat de concession ». 1038 Article 21, II du décret du 1er février 2016. / - 301 - le juge administratif tente selon les circonstances de la juguler dès lors qu'il considère qu'elle conduit à une rupture de l'égalité de traitement 1039. S'agissant de l'appréciation de la capacité financière et économique, les critères imposés doivent exclusivement concourir à ce que l'autorité concédante s'assure de la solidité financière dont les candidats peuvent faire montre afin de sécuriser l'exécution de la concession 1040. Ces critères ne doivent cependant pas conduire à restreindre abusivement la concurrence 1041. L'autorité concédante peut également exiger que l'opérateur économique et les autres entités en question soient solidairement responsables de l'exécution du contrat de concession 1042. En sus des éléments classiques d'examen des candidatures, s'ajoute la faculté 1043 pour l'autorité concédant un service public et l'obligation 1044 pour l'autorité délégante d'un service public, d'apprécier l'aptitude des candidats à assurer la continuité du service public et l'égalité des usagers devant le service public 1045. Il appartient également à chaque opérateur économique d'apporter les preuves de ses capacités et aptitudes en produisant une déclaration sur l'honneur certifiant qu'il remplit les conditions minimales de sélection et qu'il n'est frappé d'aucune des interdictions de soumissionner 1046. Outre ses capacités intrinsèques, le candidat peut également demander que soient prises en compte les capacités et aptitudes d'autres opérateurs économiques quel que soit le lien juridique qui les unit. Dans cette hypothèse, le candidat apporte la preuve qu'il en disposera pendant toute l'exécution du contrat 1047. 1039 Voir CE, 14 décembre 2009, Commune de La Roche-sur-Yon, préc., CAA Lyon, 10 mai 2001, Ville de Lyon, n° 00LY00675, Contrats-Marchés publ. 2002, comm. 17, note G. ECKERT ; RFDA 2001, p. 1365 ; BJCP 2001, p. 288, concl. F. BOURRACHOT et note C. MAUGÜÉ ; CAA Bordeaux, 3 mars 2009, X et a., n° 07BX02078, JCP A 2009, 2247 ; Contrats-Marchés publ. 2009, comm. 205, obs. G. ECKERT. 1040 CAA Douai, 11 mai 2006, Société d'exploitation des marchés communaux, n° 05DA00105, JCP A 2007, p. 2043. 1041 CAA Nantes, 22 décembre 1999, District urbain agglomération nantaise, n° 95NT00738. 1042 Article 19 du décret du 1er février 2016. 1043 Article 45 de l'ordonnance du 29 janvier 2016. 1044 Article L. 1415 CGCT ; voir également : CE, 24 novembre 2010, Commune de Ramatuelle, n° 335703 :; BJCP 2011, p. 26, concl. N. BOULOUIS ; Contrats-Marchés publ 2011, comm. 23, obs. G. ECKERT. 1045 Le Conseil d'État a toutefois précisé que dans l'exécution de la concession, les principes de continuité du service public et d'égalité des usagers devant le service public ne s'imposent au concessionnaire « que dans les limites de l'objet du contrat de concession et selon les modalités définies par ses stipulations » : CE, 3 mars 2017, Commune de Clichy-sous-Bois, n° 398901; JCP A 2017, act. 188 ; Contrats-Marchés publ. 2017, comm. 140, note G. ECKERT ; BJCP 1er juillet 2017, p. 238, note G. PELLISSIER. Idem. 1047 Article 19, III, du décret du 1er février 2016 ; voir aussi : CJUE, 4 mai 2017, aff. C-387/14, Esaprojekt sp. z o.o. - 302 - Le choix des offres ainsi que la procédure de sélection du concessionnaire connaissent également des évolutions positives. § 2. L'ACTUALISATION DES PRINCIPES PRÉSIDANT AU CHOIX DE L'OFFRE ET À LA SÉLECTION DU CONCESSIONNAIRE L'ordonnance du 29 janvier 2016 marque une avancée des règles d'encadrement du choix de l'offre et de la sélection du concessionnaire. La transformation de la logique de la négociation ainsi que l'actualisation de ses règles procédurales en constituent une illustration (A). De plus, la prise en compte entière du principe de transparence a conduit à une novation du régime des critères de sélection du concessionnaire (B). A. La négociation des offres : une faculté encadrée Indéniablement, la négociation constitue un outil de rationalisation des offres en permettant une concurrence effective avec pour objectif une baisse des coûts (1). Toutefois, son usage est encadré afin d'éviter une remise en cause des conditions initiales de la mise en concurrence (2). 1. De l'obligation de négocier à la liberté de négociation La consécration par la directive du 23 février 2014 de la négociation dans la procédure de passation des contrats de concession ne relève pas, à proprement parler, d'une innovation du point de vue du droit français. L'ancien alinéa 5 de l'article 1411-1 du CGCT disposait en effet que les « offres [] sont librement négociées par l'autorité responsable de la personne publique délégante qui, au terme de ces négociations, choisit le délégataire ». La négociation a, de longue date, constitué une « étape majeure de la procédure de mise en concurrence des délégations de service public » 1048. Pour le professeur S. Braconnier, la négociation est une modalité d'application du principe de libre choix du délégataire qui résulte du caractère intuitu personae des contrats de concession de service public 1049. Toutefois, l'évolution durant la première décennie des années 2000 de la réglementation relative aux contrats de type concessif a semblé ne plus faire de la négociation une caractéristique centrale de ces contrats. D'un côté, le juge administratif a entrepris de trouver un équilibre entre l'obligation légale de négociation 1048 J.-B. MOREL, « Le Conseil d'État se prononce sur la portée de la libre négociation en matière de délégation de service public », art cit. 1049 S. BRACONNIER, « Étendue de la négociation dans la procédure de délégation de service public », AJDA, 13 mars 2006, vol. 10, p. 554-557. 303 - des délégations de service public et l'exigence communautaire de l'égalité de traitement entre les candidats. De l'autre, en s'abstenant d'étendre le principe de la négociation aux contrats de concession de travaux publics issus de l'ordonnance du 15 juillet 2009 et du décret du 26 avril 2010, le pouvoir règlementaire, dans la lignée des textes européens, a semblé élever la négociation au statut d'une exception procédurale 1050. En définitive, la directive concession, et c'est en cela qu'elle a innové, renouvelle et harmonise la négociation au sein de la procédure de la passation des concessions de services et des travaux, non pas en tant qu'une obligation procédurale, mais au titre qu'une faculté détenue par l'autorité concédante 1051. La mutation de la négociation dans les contrats de concession, qui passe d'une logique d'obligation substantielle à une simple faculté, autorise une correspondance intellectuelle plus conforme à l'intuitu personae dont le mécanisme est également fondé sur la liberté 1052. En cela, la directive, reprise par l'article 46 de l'ordonnance du 29 janvier 2016 rétablit le cordon ombilical entre l'intuitu personae, le principe du libre choix du concessionnaire et la faculté de négocier. Ce réagencement ne doit cependant pas occulter les véritables motivations de la consécration de la faculté de négociation des autorités concédantes. En effet, le rétablissement de la liberté de négociation concourt à la fois à affermir la concurrence et à proposer des conditions économiques acceptables pour la collectivité publique et les usagers du service en rapprochant de manière beaucoup plus adéquate les offres des soumissionnaires des attentes de l'autorité concédante. Pour ce faire, l'autorité concédante it d'une relative souplesse pour organiser les modalités de la négociation. Elle reste en effet seule juge de l'opportunité de sa mise en oeuvre et n'a pas, par conséquent, à fixer un calendrier de déroulement de celle-ci. Aussi, l'autorité concédante peut, conformément à l'article 26 du décret du 1er février 2016, circonscrire le nombre de participants à la négociation. Dans le même ordre d'idée, la jurisprudence administrative admet que l'autorité concédante peut, à tout moment du processus de négociation, décider de rompre les pourparlers avec certains soumissionnaires sans être tenue, à ce stade, de les informer de cette décision 1053 sous réserve du respect de la 1050 F. OLIVIER et C. 1051 Article 37-6 de la directive sur l'attribution de contrats de concession. 1052 S. NICINSKI, Droit public des affaires, op. cit., p. 702. 1053 CE, 18 juin 2010, n° 336120 et n° 336135, Communauté urbaine de Strasbourg et Société Seche Eco Industrie, Dr. adm. 2010, comm. 128, obs. F. BRENET ; Contrats-Marchés publ. 2010, comm. 293, obs. G. / - 304 - « loyauté des relations processuelles » 1054. Ces différents éléments démontrent que les modalités de l'organisation par l'autorité concédante de la négociation sont relativement plus contraignantes que celles consacrées par la loi Sapin. En effet, le juge administratif a eu à rappeler à plusieurs reprises que la négociation sous l'empire de l'article 38 de la loi du 29 janvier 1993, alors même qu'elle était obligatoire, n'imposait aucune modalité organisationnelle ou procédurale à la personne publique 1055. Il n'en reste pas moins que les nouveaux textes insistent sur la liberté d'organisation de cette négociation qu'ils ne limitent qu'en raison du risque de rupture du principe d'égalité de traitement des soumissionnaires. 2. Une liberté procédurale encadrée Le respect du principe d'égalité 1056 et la transparence des procédures ont, bien avant la consécration de la négociation par le droit européen, conditionné en droit interne la validité de la négociation des contrats de type concessif. L'article 46 de l'ordonnance du 29 janvier 2016 qui reprend expressément les limites matérielles et procédurales européennes relatives à la négociation concourt également à assurer le respect de ces principes en prohibant toute négociation portant sur « l'objet de la concession, les critères d'attribution ou les conditions et caractéristiques minimales indiquées dans les documents de la consultation » 1057. Il est notable qu'en dehors de ces limites, l'autorité concédante qui aura décidé de limiter le nombre de soumissionnaires admis à participer à la négociation doit garantir à ces derniers un traitement égalitaire. Le principe d'égalité implique de ce fait qu'elle applique par exemple les mêmes délais intermédiaires de ECKERT ; CAA Versailles, 11 octobre 2012, Société Georget Contrats-Marchés publ. 2012, comm. 341, obs. M. UBAUD-BERGERON. Dépannages, n° 11VE00399, 1054 Sur la question de la loyauté des relations processuelles, voir CE, 18 juin 2010, n° 336120 et n° 336135, Communauté urbaine de Strasbourg et Société Seche Eco Industrie ; préc. Pour une application, voir TA Bordeaux, 24 mars 2015, Société Transdev, n° 1500857, Contrats-Marchés publ. 2015, comm. 127, obs. H. HOEPFFNER ; CAA Bordeaux, 31 juillet 2008, Société Aquitaine gestion urbaine et rurale (SAGUR), n° 04BX00289, Contrats-Marchés publ. 2008, comm. 245, note E. DELACOUR . 1055 Voir en ce sens : CE, 21 mai 2010, n° 334 , Commune de Bordeaux ; Contrats-Marchés publ. 2010, comm. 259, obs. G. ECKERT ; CE, 18 juin 2010, n° 336120, n° 336135, Communauté urbaine de Strasbourg et Société Seche Eco Industrie ; préc. 1056 CE, 9 août 2006, Compagnie générale des eaux, n° 286107 ; Contrats-Marchés publ. 2006, comm. 267, obs. E. DELACOUR ; Contrats, conc. consom. 2007, comm. 13, obs. C. PREBISSY-SCHNALL. Pour une application récente, voir également : TA Bastia, 7 avril 2015, Corsica Ferries, n° 1300938 : AJDA 2015, p. 1193, obs. S. NICINSKI. 1057 Article 46 de l'ordonnance du 29 janvier 2016. / - 305 - remise de nouvelles offres à l'égard de l'ensemble des candidats participant à la négociation 1058. Pour la direction des affaires juridiques du ministère de l'Économie et des Finances, une négociation portant sur l'un de ces éléments aurait pour effet de « porter atteinte, de manière excessive, à l'économie générale du contrat et/ou remettrait en cause les conditions initiales de la mise en concurrence » 1059. C'est, au-delà des principes fondamentaux, l'identité conceptuelle et juridique du contrat que ces limitations tendent à préserver et laissent dès lors supposer que l'énumération des éléments exclut du champ de la négociation n'est pas exhaustive. Au sens large, toute négociation qui impliquerait de manière directe ou incidente le bouleversement démesuré de l'économie générale de la concession doit être sanctionnée par la jurisprudence 1060. Dans le sillage du renouvellement des règles de la négociation, les nouvelles dispositions relatives aux concessions entérinent le renouveau du régime de la sélection du concessionnaire. B. Le renouvellement du régime des critères de sélection du concessionnaire Le nouveau régime de sélection du concessionnaire comporte des avancées significatives. Celles-ci s'illustrent, de prime abord, par l'encadrement de la é de choix des offres à travers la consécration du principe de l'intangibilité des critères de sélection (1). Ces avancées se manifestent également à travers l'obligation pour la personne publique de publier le système de hiérarchisation des critères (2). 1. La soumission des critères d'appréciation des offres au principe d'intangibilité La procédure de sélection des offres est topique des changements induits par la transposition de la directive « concessions ». L'ère ante loi Sapin, caractérisée par une liberté totale de la personne publique pour sélectionner le concessionnaire, a laissé la 1058 CE, 15 juin 2001, SIAEP Saint-Martin-de-Ré, n° 228856 ; Lebon, p. 265 ; AJDA 2001, p. 1090, note J.-P. MARKUS. 1059 Direction des affaires juridique [Ministère de l'économie et des finances], fiche technique « Mod alités de mise en concurrence des contrats de concession », 29 septembre 2016. 1060 CE, 21 février 2014, Société Dal kia France, Société Idex Energies et Société CDC Infrastructure ; n° 373159, BJCP 2014, p. 292, concl. G. PELLISSIER et obs. S.N. ; Contrats-Marchés publ 2014, comm. 111, obs. G. ECKERT ; AJDA 2014, p. 1778, obs. VILA . / - 306 - place, par le truchement de la loi du 29 janvier 1993, à une procédure de sélection du délégataire tout en restant muette sur les critères de jugement des offres. Ce dernier point fut singulièrement affermi avec les réformes de 2016 relatives aux contrats de concession. Ainsi, la marge de liberté du choix des offres au profit de la personne publique contractante qui subsistait sous la loi Sapin tend à être de plus en plus encadrée avec la consécration du principe d'intangibilité des critères de sélection dans les contrats de concession 1061. Le principe d'intangibilité des critères de sélection des offres et du concessionnaire constitue le corollaire des principes de transparence des procédures dans l'accès à la commande publique et d'égalité de traitement des candidats 1062. Conformément à la jurisprudence du Conseil d'État du 23 décembre 2009, Établissement public du musée et du domaine national de Versailles, ces principes fondamentaux impliquent, dans le cadre des contrats de délégation de service public que « la personne publique doit apporter aux candidats à l'attribution d'une délégation de service public avant le dépôt de leurs offres, une information sur le critère des sélections des offres » 1063. Le principe d'intangibilité, codifiée par l'ordonnance et le décret relatifs aux contrats de concession, impose, de prime abord, que les critères de sélection des offres ainsi que leur description soient fixés et rendus publics avant le lancement de la procédure de passation. Dans le même sillage, la nouvelle règlementation établit le principe de la pluralité et de la non-discrimination des critères de sélection des offres. Ces derniers doivent également être « précis et liés à l'objet du contrat de concession ou à ses conditions d'exécution » 1064. Ensuite, une fois les critères de sélection établis, l'autorité concédante ne peut, en aucune circonstance, procéder à leur modification une fois la procédure de passation lancée, et notamment lorsque les candidatures et les offres sont déposées. Du reste, la problématique de la marge de manoeuvre laissée à l'autorité concédante dans le choix des critères de sélection ne pose pas de difficultés particulières. Elle jouit, dans le cadre juridique susmentionné, d'une grande liberté de sélection des critères.
55,514
2009ECDL0003_2
French-Science-Pile
Open Science
Various open science
2,009
Comportement tribologique acoustique d'un contact élastomère / verre : Contribution à la compréhension de l'éssuyage : Application aux systèmes automobiles d'essuie glace
None
French
Spoken
7,245
11,756
D’autre part pour un essai de traction conventionnel sur une éprouvette en élastomère, la courbe n’est pas linéaire, ce qui rend la définition du module d’élasticité difficile (Module de Young pour les matériaux métalliques). Dans cette configuration, la matière est partiellement réticulée par des ponts au soufre. Les pontages intermoléculaires s’étirent et confèrent au matériau une élasticité très importante qui peut aller jusqu’à 300 % de déformation. La Trib ologie des élastomères 21 Par définition, on appelle « module de Young » de tels matériaux, la pente de la courbe force/allongement à petite déformation. Pour de grandes déformations, il peut être utile de définir des modules tangents. Les pertes de caractéristiques mécaniques dépendent à 80% du maximum des déformations atteint par le matériau. a. Origine physique : Cohésion de la matière, rôle de l’entropie Toute matière soumise à une sollicitation se déforme ce qui entraîne un déplacement des atomes hors de leur position d’équilibre. La cohésion de la matière résulte deux types d’interaction. D’une part, il existe des liaisons intramoléculaires (liaison covalente forte) et d’autre part les liaisons intermoléculaires plus faibles. Les caractéristiques mécaniques du solide dépendent du type de liaisons sollicitées. Pour le cas des élastomères, polymères amorphes, les propriétés élastiques sont principalement déterminées par la composante enthalpique donc par l’intensité des liaisons faibles. A l’échelle microscopique, elles se calculent à partir des potentiels d’interaction entre atomes ou groupement d’atomes. La Figure 4 représente le lien intime qu’il existe entre deux macro molécules. L’intensité de cohésion de ces chaînes est quantifiée par la distance ∆ entre chaque atome (ou groupe d’atomes) plus proches et le potentiel d’interaction associé. CH3 CH2 Atome de soufre CH2 C œud de réticulation CH CH2 CH CH2 Sn C CH3 ∆ ∆ Atome ou groupe d’atomes Figure 4 : Schématisation des interactions moléculaires entre les chaînes polymères d’un élastomère La réponse à une sollicitation mécanique se traduit par une force de rappel élastique qui est donc constituée de deux contributions, d’une part une force de rappel enthalpique, et d’autre part une force de rappel entropique. L’énergie mécanique apportée au système peut être stockée sous forme d’augmentation de l’énergie interne en modifiant les distances entre atomes, ou sous forme de chaleur avec une diminution de l’entropie du système (une augmentation de l’ordre). Dans le premier cas, la force de rappel élastique reste quasi-constante en fonction de la température et a donc une origine enthalpique. Pour ces solides à élasticité enthalpique la force de rappel élastique résulte d’un petit déplacement des atomes hors de leur position d’équilibre. L’énergie de cohésion est très élevée, le module d’élasticité est grand. Le domaine élastique réversible est très limité. La déformation induit une augmentation importante de l’énergie interne et l’entropie n’est pratiquement pas modifiée puisque les atomes s’écartent peu de leur position d’équilibre. Dans le cas des élastomères, la force de rappel varie significativement avec la température absolue. Ces solides ont une élasticité entropique/enthalpique variable car ils sont constitués de longues chaînes macromoléculaires reliées entre elles par des ponts de réticulation peu nombreux. La cohésion entre ces chaînes est donc très faible car les forces de rappel sont d’origine entropique et augmentent avec la température. Le module d’élasticité donc typiquement très faible et la déformabilité est importante. A l’état vitreux, la matière est sollicitée à une température inférieure à sa température de transition vitreuse. Elle a un comportement viscoélastique avec un module de conservation important. La notion de chaînes macromoléculaires intervient peu dans les propriétés élastiques puisqu’elles sont fixes. L’origine de l’élasticité est enthalpique. Pour des températures supérieures à la température de transition vitreuse, les liaisons atomiques précédemment observées sont affaiblies. La mobilité des chaînes est rendue possible, par conséquent le La Tribologie des élastomères 22 rôle des liaisons atomiques est très faible devant les effets entropiques propres aux chaînes macromoléculaires (grande élasticité). b. Modélisation mécanique Les propriétés structurales spécifiques des élastomères induisent un comportement non linaire (effet Payne) et une réponse non stationnaire à une sollicitation cyclique. Pendant des cycles de chargement et déchargement, les réponses du système ne se superposent pas. L’hystérésis est causée par plusieurs phénomènes dissipatifs (viscosité, effet Mullins, cristallisation sous contrainte). c. Effet Payne (non linéarité) Dans le domaine de déformations jusqu’à 40% voir 100%, la matrice élastomère montre un comportement linéaire. L’introduction de charge conduit à une non linéarité du comportement (Figure 5), c’est l’effet de Payne. Aux faibles déformations, on observe un plateau correspondant au plateau caoutchoutique. Le module de conservation E’ diminue lorsque la déformation augmente jusqu’à une valeur stabilisée. Cette décroissance est associée à un maximum du module de perte traduisant une dissipation d’énergie d’autant plus grande que la chute de E’ est élevée. L’effet de Payne est interprété comme le processus de désagrégation ou de rup du réseau des charges ou par des mécanismes de frottement mis en jeu à l’interface charge/matrice [115]. 5 Plateau caoutchoutique 0,16 3 Tan δ E’ [.106 Pa] 4 0,20 2 1 Maximum du module de perte 0,12 0,08 0 0,1 1 10 100 1000 10000 Amplitude de déformation [.10-3 m] 0,1 1 10 100 1000 10000 Amplitude de déformation [.10-3 m] Figure 5 : Analyse de l’effet de Payne, évolution de propriétés mécaniques en fonction du niveau de déformation pour un élastomère SBR renforcé en silice [68]. d. Effet Mullins L’effet Mullins [77] [91] est relié à un phénomène de dissipation d’énergie assimilé à un endommagement (Figure 6). Par exemple, lors du premier cycle de traction, les chaînes de polymères s’étirent. Une réorganisation moléculaire est observée, de plus, certaines des liaisons inter et ou Contrainte, σ [MPa] intramoléculaire peuvent être brisées. Première sollicitation 10 Pertes de rigidité Cycles suivants Déformations rémanentes 0 10 Déformations [%] 100 Figure 6 : Observation de l’effet Mullins lors d’un essai de traction répétitif La Tribologie des élastomères 23 Ces phénomènes sont observés lors des premières sollicitations d’un échantillon. Lors d’un chargement périodique, une perte de résistance est observée à partir de la seconde sollicitation qui est assimilée à un endommagement stabilisé : c’est l’effet Mullins. L’étuvage permet de relaxer le matériau est donc de supprimer cet effet. 2.3. Comportement viscoélastique Les matériaux élastomères ont deux comportements mécaniques distincts lorsqu’ils sont sollicités au delà de leur température de transition vitreuse : - Un comportement élastique caractérisé par un module d’origine entropique. - Un comportement visqueux plus ou moins visible caractérisé par une viscosité. Les élastomères soumis à une force extérieure ont un comportement complexe qui e ces deux réponses : le résultat est un comportement viscoélastique Pour ces matériaux, le partage entre la réponse élastique et visqueux dépend étroitement de la fréquence de sollicitation et de la température. a. Fluage et relaxation La matière peut être sollicitée à contrainte constante. La déformation observée dans le temps est considérée comme la réponse et permet de caractériser la souplesse de la matière, c’est un essai de fluage. Dans la configuration où la sollicitation est réalisée en déformation, la réponse du système se mesure sur la contrainte qui est révélatrice de la rigidité de la matière, c’est un essai de relaxation. Dans les phases de fluage ou de relaxation, la matière s’accommode à la sollicitation. Ce phénomène est d’autant plus marqué au delà de la température de transition vitreuse car les chaînes de polymères deviennent mobiles à grande distance (désenchevêtrement des chaînes) les une par rapport aux autres si la matière est sollicitée. Les ponts de réticulation aux soufres entre les macromolécules s’étirent (origine de l’élasticité). Les zones libres des chaînes (partie non réticulée) ont une mobilité suffisante pour évoluer vers une configuration stable qui minimise l’énergie interne. Le temps de diminution des contraintes internes jusqu’à leur stabilisation est une fonction de l’intensité, de la fréquence de la sollicitation et de la température. b. Modèles rhéologiques simples L’élastomère est un matériau qualifié d’élastique et visqueux. Il existe deux modèles simples pour modéliser un tel comportement (Figure 7). Le modèle de Maxwell associe un amortisseur visqueux en série avec un ressort élastique tandis que celui de Voigt couple les mêmes éléments en parallèle. Leurs équations respectives sont : - Maxwell : - Voigt : ε = σ σ + E' η (4) σ = H.ε + η.ε soit ε = (σ -H.ε) / η (5) Avec σ la contrainte interne dans le matériau, η la viscosité, ε la déformation et ε la vitesse déformation. η E’ η (a) Modèle de Maxwell E’ (b) Modèle de Voigt Figure 7 : Modèles rhéologiques de base pour modéliser la viscoélasticité. La particularité du modèle de Voigt est de ne pas présenter d’élasticité instantanée. Ceci entraîne que sa fonction de relaxation n’est pas continue et dérivable par morceaux, avec un saut fini à l’origine : La Tribologie des élastomères 24 l’application d’un saut de déformation en t = 0 produit une contrainte infinie. Ce modèle n’est donc pas utilisable en relaxation, sauf si la mise en charge est progressive, et est pour cette raison associé à un ressort en série pour effectuer des calculs de structure. Sous l’effet d’une contrainte fonction du temps, la déformation tend vers la valeur asymptotique σ0 constante en σ0 / H (H la dureté du matériau), le fluage est donc limité. Par ailleurs, si, après une mise en charge lente, la déformation est fixée à une valeur ε0, la contrainte asymptotique est égale à H.ε0. Il n’y a donc pas dans ce dernier cas, disparition complète de la contrainte. Au contraire, dans le cas du modèle de Maxwell, la vitesse de fluage est constante, et la disparition de contrainte au cours d’une expérience de relaxation est totale. Des modèles plus complexes, combinant les éléments de ces deux modèles simples, permettent d’obtenir des modèles plus réalistes et propres à chaque matériau comme Kelvin–Voigt, Bürgers et les autres modèles généralisés. c. Équivalence temps température [92] Le principe d’équivalence temps température permet de prédire le comportement d’un élastomère à une température T sollicité à la fréquence f, avec un essai similaire effectué à une température de référence T0 qui est choisie par convention 50 K au dessus de la température de transition vitreuse et à une fréquence f0 plus faible. Toutes les courbes isothermes à différentes températures T peuvent ainsi être translatées en utilisant le facteur aT de la transformation WLF (William Landel Ferry). −8,86.(T − T0 ) (6) log10 aT = 101,5 + T − T0 Ce principe est également appelé principe de superposition et n’est valable que dans un intervalle délimité par Tg et Tg +100 K. La relation WLF n’est pas le seul moyen d’obtenir une équivalence entre le temps et la température. La loi d’Arrhenius donne aussi ce type de relation. Il est considéré que la relation WLF s’applique plutôt au-dessus de la température de transition vitreuse et qu’elle est liée à des mouvements globaux des molécules, tandis que la loi d’Arrhenius est liée à des mouvements plus locaux. 3. Contact et Adhérence Dès que deux solides sont en contact des interactions à plus ou moins longue portée prennent naissance. La création de lien intime entre les surfaces dépend aussi de l’environnement. 3.1. Adhérence et mouillage Ces liaisons à l’échelle moléculaire sont à l’origine d’un phénomène élémentaire qui nous aide dans tout nos déplacements : l’adhérence. a. Forces intermoléculaires Pourquoi donne-t-on tant d'importance aux forces de Van der Waals? Tout simplement parce que, dans une atmosphère ordinaire, l'air ambiant par exemple, les forces les plus intenses, qui sont à très court rayon d'action, sont écrantées par les films d'oxyde, les couches de molécules adsorbées et toute contamination extérieure présente sur une surface de sorte que la contribution des forces de Van der Waals, dans cette situation, devient prépondérante. Si l'on élimine la contamination atmosphérique, les couches d'oxyde peuvent alors réagir par des liaisons polaires, appelées aussi liaisons donneur accepteur ou encore liaisons acide base, ou par des liaisons ioniques plus intenses. Ces forces ont été étudiées par Keesom en 1912, qui postulait que les molécules s'attiraient à l'image de petits aimants. Ce modèle, qui ne convenait pas aux molécules non polaires, a été amélioré par Debye en 1920 en expliquant qu'il suffisait qu'une molécule soit polaire et attirait les autres par influence. London, La Tribologie des élastomères 25 en 1930, a montré que l'attraction des molécules non polaires résulte des interactions électromagnétiques produites par les fluctuations continuelles dans la distribution des électrons à l'intérieur des molécules qui se produisent à la fréquence de l’ordre de 1015 hertz. Enfin, la théorie généralisée a été proposée par Lifshitz en 1955. Les forces de Van der Waals, qui interviennent seules dans le cas des élastomères, ont une intensité faible mais avec un grand rayon d'action. Elles sont mesurables dès que la distance devient inférieure à quelques dixièmes de micromètre et jusqu'à deux Angströms (1 Å = 10 -10 m). Les forces de Van der Waals ont donc au maximum trois composantes ou« origines » : - Les forces de Keesom ou effets d'orientation qui résultent d'une interaction intermoléculaire entre dipôles permanents. - Les forces de London ou de dispersion qui sont créées par les dipôles induits et existent du fait que la densité électronique des molécules est probabiliste. - Les forces de Debye ou effets d'induction qui se produisent entre des molécules possédant un moment dipolaire permanent et des molécules non polaires. Dans le cas d’une sphère au voisinage d’un plan, comme le rayon de la sphère est très grand devant la distance δ de séparation des deux solides. L’interaction globale mesurée peut-être assimilée à la somme des interactions de force ψ ( z ) sur les éléments circulaires de largeur dr et de rayon r, pris sur la sphère. La force de Van der Waals peut s’écrire sous la forme suivante : ∞ ∞ FVdW = 2π.R ⋅ ∫ ψ ( z ) dz avec δ A ∫δ ψ ( z ) dz = 12π.δ 2 donc FvdW = − R. A (7) 6.δ 2 Avec A la constante de Hamaker qui dépend des matériaux en présence, du milieu ambiant, de la température dont l’intensité est de l’ordre de 10-20 à 10-19 J. La Figure 8 présente l’évolution de la force normale en fonction de la distance d’approche lors d’un essai d’ indentation d ’ un plan en élastomère avec une pointe normalisée type Berkovich. L ’ apparition d’une hystérésis sur l’ effort normal est observée lors du rapprochement et de l’éloignement. Vitesse de chargement Force FN [mN] Charge maximale imposée F δ Chargement Déchargement Décollement complet de la surface Force d’adhérence ≈ 0,075 m Déplacement δ [nm] Figure 8 : Courbe d’indentation sur un élastomère chargé réticulé avec une pointe type Berkovich. La vitesse de chargement est de 0,1 s-1 La température d’essai est de l’ordre 25°C. Le comportement particulier de ce contact est observé à très faible charge lors du retrait de la pointe Berkowich. Une force d’adhésion est détectable avant la rupture du contact. Son intensité est de l’ordre de 5% de l’effort normal maximal. L’adhérence du contact provient de deux composantes : La Tribologie des élastomères 26 - Le matériau possède une énergie de surface suffisamment important pour avoir une adhésion non négligeable. Les aspérités d’élastomères adhèrent à la pointe de l’indenteur et leur intensité augmente avec le temps. - D’autre part, cet aspect adhésif est renforcé par les propriétés viscoélastiques du plan en élastomère. Les macromolécules des aspérités sous contraintes se réorganisent pour relaxer la matière. Par conséquent, les tailles des jonctions interfaciales et l’imbrication moléculaire des solides en contact augmentent avec le temps de contact sous charge. b. Énergie de surface et travail d’adhésion [31] γ L'énergie superficielle représente le travail à effectuer pour séparer, de manière isotherme et réversible, deux parties du solide suivant un plan imaginaire de surface unitaire, en coupant les liaisons rencontrées (Figure 9 a). Cette énergie d’adhésion s'exprime en joule par mètre carré (J.m-2). Travail de cohésion, W11 1 γ1= W11/2 1 Solide 1 Travail d’adhésion, W12 1 γ12= W121/2 2 Solide 1 Solide 2 (a) Demi surface unitaire (b) Figure 9 : Schématisation du travail de cohésion et d’adhésion de la matière Il existe une définition analogue pour rendre compte de la séparation de deux solides différents 1 et 2 préalablement réunis : c'est l'énergie d'adhésion de Dupré (1969), ou travail thermodynamique réversible d'adhésion. Son calcul est simple : il faut dépenser l'énergie du corps 1 et l'énergie interfaciale γ 12 γ 2 γ 1 pour créer un élément unitaire de surface pour créer un élément unitaire de surface du corps 2, et l'on récupère l'énergie emmagasinée à l'interface lors de la mise en contact des corps 1 et 2 (Figure 9 b). W12 = γ 1 + γ 2 − γ 12 (8) C'est l'énergie de Dupré qui est responsable du maintien en place de deux corps réunis dans un assemblage et qui assure leur contact intime. A titre d'exemple, les matériaux métalliques et covalents ont des énergies superficielles très élevées, de l'ordre de 1 à 3 J.m-2, pour les cristaux ioniques la gamme d'énergies s'étend de 100 à 500 mJ.m-2, quant aux matériaux moléculaires, leurs énergies superficielles sont inférieures à 100 mJ.m-2, ordre de grandeur de la liaison hydrogène et des forces de Van der Waals. c. Interfaces solide/liquide [31] Le comportement d’un liquide dans un environnement peut être singulier [94]. L’effet de la pesanteur a une influence qui peut être ou non négligée. Prenons l’exemple d’une simple goutte d’eau déposée sur une surface de polytétrafluoroéthylène (PTFE) à caractère hydrophobe prononcé (pas d’affinité avec l’eau). La morphologie de la goutte est totalement différente suivant la quantité d’eau, une goutte de quelques microlitres est quasiment sphérique alors qu’une goutte de 1 cm3 est sous la forme d’une nappe de liquide. La longueur capillaire κ-1 Il existe une échelle de longueur au delà de laquelle la gravité devient importante. Cette longueur κ-1 s’appelle la longueur capillaire. On l’estime en comparant la pression de Laplace γ/κ-1 à la pression hydrostatique ρ.g.κ-1, lorsqu’on plonge à une profondeur κ-1 dans un liquide de densité ρ soumis à une champs de gravité terrestre g. L’égalité de ces deux pressions définit la longueur capillaire κ-1 : La Tribologie des élastomères γ ρ.g κ −1 = 27 (9) En générale, la longueur capillaire est de l’ordre de 2 mm. Dans le cas de l’exemple cité, si la goutte d’eau est au maximum millimétrique, sa forme est sphérique. Mouillabilité d’une surface Lorsqu’une micro goutte de liquide est déposée sur une surface sa géométrie à la forme d’une calotte sphérique plus ou moins prononcée. La surface de contact de l’interface solide liquide est dépendante de l’affinité de la surface pour le liquide. Un essai de mouillabilité s’intéresse tout particulièrement à l’angle de contact de la goutte θ (Figure 10 a). Le volume de la goutte n’a aucune incidence sur l’angle de contact tant que la gravité est négligée (Pour minimiser l’influence de la gravité il faut travailler avec une goutte de quelques microlitres). En fonction de la forme de la goutte pour trois liquides différents sur la surface à caractériser, il est possible de calculer une énergie de surface. Young a compris en 1805 que cet angle est fixé par l’équilibre de trois tensions de surface (une énergie de surface est aussi une force par unité de longueur qui tire l’interface pour en réduire l’aire). Au point d’arrêt des interfaces, l’équilibre mécanique exprimé suivant la direction du plan solide donne Cos θ = où γ SV, γ SV − γ SL γ LV (10), relation de Young 1805 γ SL et γ LV sont les tensions solide/vapeur, solide/liquide et liquide/vapeur des trois interfaces en présence. Point d’arrêt (b) (a) γLV θ,angle de mouillage θa, angle d’avancée γSV θr, angle de reculée γSL Figure 10 : Angle de mouillage statique (a) et dynamique (b) Ces trois tensions interfaciales permettent de calculer le paramètre d’étalement S (Figure 11) qui définit la transition entre le mouillage partiel et total. S = γ SV − (γ LV + γ SL ) Energie du solid e nu Energie du solide recouvert de liquide Figure 11 : Calcul du paramètre d’étalement • Si S < 0 alors le mouillage est partiel, c'est-à-dire que l’angle θ existe. Lorsque l’angle θ est supérieur à 90°, le solide présente un caractère non mouillant, et mouillant si cet angle est inférieur à 90°. En pratique, l’angle de contact n’est pas unique et varie entre l’angle d’avancée θa et de reculée θr d’une goutte glissant sur un plan incliné (Figure 10 b). L’amplitude de cette variation est comprise entre 10 et 60°. Cet effet est une conséquence de l’accrochage des gouttes aux inévitables imperfections géométriques de la surface solide et de sa modification due à l’adsorption de molécules. Ainsi, il est donc intéressant d’effectuer un test dynamique, c'est-àdire de réaliser une mesure entre l’angle d’avancée et de retrait de la goutte, pour détecter l’homogénéité physique (rugosité) ou chimique de la surface [11] [25]. • Si S > 0 alors le mouillage est total. La surface de contact entre le liquide et le solide est maximale. L’épaisseur de la nappe de liquide est fonction de γLV et de la gravité. La Tribologie des élastomères 28 La caractéristique de mouillage est contrôlée à la fois par la nature chimique des surfaces et par les rugosités de surfaces. Pour une analyse avec un liquide tel que de l’eau, on parle de notion d'hydrophilie (configuration mouillante) et d'hydrophobie (configuration non mouillante). Les travaux de Quéré ont montré que le caractère super hydrophobe d’une surface est obtenu en combinant deux effets : une micro texturation de surface et un revêtement chimique [95] [96] d. Adhésion capillaire Dans un environnement confiné formé par un contact, la présence d’eau modifie les interactions de surfaces et génère une force d’adhésion supplémentaire. La situation décrite par la Figure 12 schématise un contact entre deux surfaces lisses : une sphère de rayon R et un plan. R A A r’, premier rayon de courbure du ménisque θ1 θ2 Section A-A r’’ Second rayon de courbure du ménisque θi angle de mouillage aux surfaces Figure 12 : Schématisation de la formation d’un pont capillaire entre une sphère lisse et un plan lisse [1]. La force d’adhésion FAdhésion résulte alors du produit de pression à l’intérieur du liquide et de la section du pont capillaire : Fadhésion = ∆P ⋅ Sact (11) L’équation de Laplace Young est une loi liant la différence de pression ∆P entre deux milieux dont la surface de séparation Sact est courbe tel que : 1 1  ∆P = γ LV ⋅  +   r'r ''  ( 12 ) Les paramètres r’ et r’’ sont les rayons de courbures principaux du ménisque de liquide. On peut ainsi définir la surface d’action Sact des forces capillaires avec r’’>>r’ : Sact = 2π.R.r ''⋅ (cos θ1 + cos θ 2 ) Avec R le rayon de courbure du sommet de la plus grande aspérité, ( 13 ) θ1 et θ 2 les angles de mouillage du liquide respectivement sur l’aspérité et sur le substrat. La force globale s’écrit : Fadhésion = 2π. R.γ L ⋅ (cos θ1 + cos θ 2 ) ( 14 ) Influence de la rugosité Si on considère l’existence d’une rugosité de surface pour le plan alors les surfaces moyennes du plan et la sphère sont séparées par la hauteur des aspérités. Prenons le cas simple d’une sphère lisse et d’un plan avec une aspérité de hauteur ha. Suivant la quantité d’eau présente, le pont capillaire peut avoir deux configurations (Figure 13) : - Soit le pont se forme entre le plan moyen de la surface et la sphère. La Tribologie des é lastomères - 29 Soit la quantité d’eau est insuffisante alors le pont de liquide est réalisé entre le sommet d’une aspérité de rayon de courbure rp du plan et la sphère . Le taux d’humidité de l’atmosphère a une influence non négligeable sur la géométrie du pont capillaire. Ali [2] donne l’expression des efforts capillaires dans les deux configurations. Cette analyse théorique révèle que la force capillaire générée dans le cas (b) est plus importante que dans le cas (a) : (b) (a) Adhésion plus importante que dans la configuration (a) R r' A B A B θ2 ha θ1 rp r’’ Section A-A Section B-B r’’ Hauteur de l ’ a spér ité Figure 13 : Formation du pont capillaire suivant la quantité d’eau dans le contact. Les effets d’adhésion seront fonction de la forme du ménisque. Fadhésion cas (a) = 4 π.R.γ L ⋅ ( 1 − ha ) 2.r'Fadhé sion cas ( b) = 2π.γ L.rp ⋅ ( cos θ1 + cos θ 2 ) ( 15 ) < Par conséquent, les propriétés de mouillage des surfaces combinées à une rugosité de surface vont conditionner la forme des ponts capillaires donc leurs intensités. La quantité d’eau dans le contact se révèle être un facteur important. Dans le cas de deux plans parallèles (Figure 14) distants d’une grandeur δ la force d’adhésion s’exprime avec la relation suivante : Fadhésion = 2π.r '' 2.γ LV ( 16 ) δ r’’ r' δ Fad hési on Figure 14: Liquide confiné entre deux plans parallèles Avec r’ et r’’ les rayons de courbure du ménisque. Le rayon r’ est proche du rapport δ/2 car le liquide mouille totalement la surface. Dans le cas de l’eau, pour deux plans séparés d’une distance δ = 1μm, avec un rayon de goutte r’’ = 100 μm, la force de capillarité générée est de 50 N. C’est pourquoi, pour l’étude d’interface confinée, il faut être attentif à l’humidité ambiante qui peut générer des efforts de cohésion importants [1] [111]. 3.2. Théorie de l’adhérence L’ensemble des propriétés de surface (rugosité, énergie de surface...) des deux solides en contact rentre en jeu pour déterminer leur niveau d’interaction. La compréhension de l’adhérence a fait un réel grand pas en avant en 1971 à la suite de l’introduction par Kendal [62], puis Johnson et al. [61] du concept de bilan d’énergie. Le contact de deux solides est considéré comme un système thermodynamique et La Tribologie des élastomères 30 l’équilibre correspond à la minimisation de l’énergie totale du système. La force d’adhérence s’obtient en annulant la dérivée première de l’énergie totale. a. Approche thermodynamique [92] Un système fermé peut échanger avec le milieu extérieur une énergie sous la forme d’un travail ou de chaleur. Dans l’exemple présenté par la Figure 15, deux sphères élastiques sont en contact avec une adhérence dont l’intensité est dépendante des propriétés physiques des surfaces. Si l’interface est soumise à un effort d’arrachement constant inférieur à l’effort d’adhésion initial alors l’aire de contact est susceptible d’évoluer. La réduction de l’aire de contact peut être observée et considérée comme la propagation d’une fissure vers le centre du contact. L’extension de la fissure s’effectue dans le plan perpendiculaire à la force d’arrachement. La thermodynamique permet d’étudier les conditions d’équilibre et de stabilité du système. Amorçage de la rupture de contact Système fermé Poids mort, Effort F Propagation AAp Aire de contact δ, déplacement Zoom sur la circonférence de la zone de contact Figure 15: Analyse thermodynamique de la stabilité d’un système L’état thermodynamique est défini par une nombre de variables extensives indépendantes Xi (Entropie S, le volume V,...). L’équilibre du système est observé quand l’énergie interne U est minimale. L’équation U=U(S,V,Xi,...) est appelée équation fondamentale et sa différentielle première est :  ∂U   ∂U   ∂U  dU = .dS + .dδ +    .dA  ∂S δ,A  ∂δ S,A  ∂A S,δ ( 17 ) Peut être écrite dU = T. dS + P. dδ + (G W). dA ( 18 ) Cette relation fait intervenir : - la température du système T, - la force de traction appliquée au système F, - W est le travail thermodynamique d’adhésion au sein de l’aire de contact AAp, - G est le taux de restitution de l’énergie mécanique dépendant de la configuration du système (de l’aire de contact AAp, du déplacementδ) qui décrit la variation de l’énergie mécanique. Une analyse mathématique détaillée démontre que l’évolution du système est donnée par la comparaison du taux de restitution G avec le travail thermodynamique d’adhésion W : - L’équilibre du système est donné pour l’égalité entre G et W. - Si G < W alors l’aire de contact augmente - Si G > W alors la rupture du contact progresse. La Tribologie des élastomères 31 b. Mesure de l’adhérence La caractéristique d’adhérence est accessible de manière expérimentale par différents moyens (Figure 16) : - Un test de pelage d’une bande à partir de la surface d’un substrat rigide. - Une mesure de la résistance à l’avancement d’un cylindre rigide sur un plan incliné composé du matériau à caractériser. - Un essai de décollement de poinçon rigide d’un substrat. Effort de pelage Effort d’indentation Déplacement, δ Sphère rigide Couple résistif Cylindre rigide Elastomère Plan rigide Déplacement, δ Elastomère Pelage d’une couche d’élastomère déposée sur un substrat rigide Roulement d’un cylindre rigide sur un substrat d’élastomère Indentation d’un substrat d’élastomère par une sphère rigide Figure 16: Méthodes expérimentales pour mesurer l’adhérence d’un matériau c. Rôle de la viscoélasticité Les pertes viscoélastiques joue le rôle de frein dans la propagation de fissure dans les cas de pelage précédemment présentés. La vitesse de fissuration adopte à chaque instant une valeur qui équilibre l’effort moteur de la propagation (G-W) et les pertes viscoélastiques. 3.3. Mécanique du contact a. Contact non adhésif Pour comprendre les mécanismes physiques présents à l’interface entre deux solides en contact statique ou en glissement, il est impératif de quantifier la zone de contact et d’identifier les contraintes générées lorsqu’il n’est pas possible de la mesurer expérimentalement ou de la visualiser. Surfaces lisses : Approche de Hertz En 1881, Heinrich Hertz (1857-1894), jeune ingénieur allemand et docteur des sciences de 24 ans qui se fera bientôt connaître comme physicien, publie Über die Berührung fester elastischer Körper [52] développant l’étude de contact des corps solides élastiques, un mémoire qui fera date, puisqu'il s'agit de la première théorie cohérente des contacts ponctuels. Hertz élabore F une théorie des contacts des corps rigides élastiques en reprenant E2, υ2 les hypothèses de Boussinesq (1842-1929). Pour un contact sphère plan statique entre deux matériaux qui n’ont aucune interaction R2 R1 moléculaire, la théorie de Hertz permet d’estimer l’aire et les δ pressions de contact en fonction des caractéristiques matériaux (E’i et υi de chaque composant), de la géométrie des pièces (R le rayon 2a E1, υ1 de courbure de la sphère) et de la sollicitation normale au contact FN. La relation entre FN et le rayon de contact a s’obtient en ordre de grandeur, en écrivant que la contrainte normale égale à FN/a2 et la déformation δ/a sont reliées par la loi de Hooke donc Figure 17 : Contact entre deux sphère lisse, application de la théorie de Hert z [52] . La Tribologie des élastomères 32 FN δ = E '. a2 a ( 19 ) La relation géométrique permet de relier l’enfoncement δ au rayon de contact a et au rayon de courbure R de la sphère tel que : δ ≈ R a ( 20 ) De cette façon le rayon de contact s’obtient : 1/ 3 F.R  a ≈    E'  ( 21 ) Un calcul plus précis tenant compte du module de Young équivalent E* des deux matériaux, des rayons de courbures de chacun des solides (Figure 17). Le rayon de contact s’exprime de la manière suivante : 1 /3  3.F.R *  a= *   4E  ( 22 ) Pour un contact linéique de longueur L entre un cylindre et un plan, en considérant le rayon R1 comme infini le rayon équivalent devient : R* = R1.R2 R1 + R2 → R* = R ( 23 ) R1 →∞ La théorie de hertz donne la relation suivante pour déterminer la largeur du contact :  4.F. R  b =  N *   π.L.E  1/2 ( 24 ) Surfaces rugueuses : Approche de Greenwood Williamson La théorie de Hertz permet de déterminer l’étendue du contact (Aire apparente AAP) dans le cas de surfaces lisses mais ne renseigne pas sur l’aire réelle AR de contact. Pour compléter ces travaux, en 1966 Greenwood et Williamson [45] ont mené une étude théorique à l’échelle microscopique pour modéliser le rôle de la distribution des hauteurs des aspérités sur le contact élastique. Ils considèrent le cas du contact entre une surface rugueuse et un plan rigide lisse (Figure 18) et émettent les hypothèses suivantes : - les aspérités sont de formes sphériques au voisinage de leur sommet avec un rayon de courbure au niveau du sommet égal à β. - Les déformations des micros contacts sont élastiques et suivent les lois de Hertz. - La hauteur des aspérités est une variable aléatoire de densité de probabilité σ Φ (z) et d’écart type pour une répartition gaussienne ou exponentielle. Pour le cas de deux surfaces rugueuses en contact, le problème est simplifié en considérant une surface rugueuse équivalente. β, rayon de courbure du sommet des aspérités Solide rugueux Modélisation de la surface rugueuse δ Surface moyenne Figure 18 : (a) Contact réel entre un solide rugueux et un plan lisse (b) Rugosités modèles hémisphériques de la surface rugueuse [126] Pour une distance de séparation entre le plan lisse et la surface moyenne du solide rugueux égale à δ, le nombre de sommets en contact s’exprime avec la relation suivante : La Tribologie des élastomères 33 ∞ n = N.∫ Φ ( z s ) dz s d ( 25 ) Avec N le nombre de sommets sur la surface rugueuse pour un mètre carré. Un sommet situé à une hauteur zs s’écrase lors du contact selon un déplacement δ = zs − δ et forme un microcontact de Hertz de rayon a, avec 1 a = [( zs − δ ).β ] 2 ( 26 ) L’aire réelle AR de contact peut alors s’exprimer : ∞ AireRéelle = AR = π ⋅ N ⋅ β ⋅ ∫ ( z s − δ ) ⋅ Φ ( zs ) ⋅ dzs d ( 27 ) La charge FN supportée par l’aspérité s’exprime avec la relation suivante si la déformation est élastique : F = 3 4 * 12 ⋅ E ⋅ β ⋅ ( zS − δ ) 2 3 ( 28 ) Le nombre de microcontact dépend linéairement de la charge totale appliquée et non de la pression nominale. Pour un matériau élastique, le nombre de microcontacts est suffisant pour que le comportement de l’interface soit peu fluctuant et puisse être décrit comme une moyenne sur toute la population. Lorsque le chargement s’accentue, de plus en plus d’aspérités peuvent venir en contact, et les premières d’entre elles sont soumises à des efforts plus importants. La plasticité appar dès que la pression réelle Pr est supérieure à 1,1 fois la limite élastique du matériau (équivalent à 0,39 fois la dureté H du matériau). Pour une répartition gaussienne, l’indice de plasticité de Greenwood Williamson permet de prendre en compte la transition d’une réponse élastique à une réponse élasto plastique du matériau : 1/ 2 E*  σ  ψ= ⋅ H  β  - ( 29 ) ψ < 0, 6 alors la déformation des aspérités est élastique, même pour des charges élevées. Si ψ > 1 alors la déformation des aspérités est plastique, même pour des charges faibles. Si 0, 6 < ψ < 1 on peut observer le passage de la déformation élastique à la déformation Si plastique. Elle apporte une analyse basée sur des données géométriques facilement mesurables et permet de rendre compte de la proportionnalité entre l’aire réelle de contact AR et la charge appliqué FN. Par conséquent, le modèle de Greenwood et Williamson complète et généralise le modèle de Bowden and Tabor pour des interfaces qui ne sont pas entièrement plastifiées b. Contact adhésif Des interactions existent à l’échelle moléculaire entre deux solides en contact qui sont responsables de l’adhésion. Ces forces locales modifient la mécanique du contact. Ce n’est qu’à partir des années 1970, que des scientifiques ont adapté la théorie de Hertz pour des configurations de contact présentant une forte composante adhésive. Modèle de Bradley Une des premières théories de contact qui prend en compte l'effet des forces intermoléculaires a été développée par Bradley [18] qui montre que la force nécessaire pour séparer les deux solides indéformables est égale à 2.π.W12. R où W12 est le travail d'adhésion de Dupré et R* est le rayon équivalent. Cette expression est obtenue en intégrant les pressions causées par la traction des forces entre les surfaces sur la zone de contact. Théorie de Johnson Kendall Roberts (JKR) Le modèle de Johnson Kendall Roberts JKR établi en 1971 s’intéresse aux surfaces en contact présentant une grande élasticité et une adhésion importante. On se propose d’étudier le cas d’un contact La Tribologie des élastomères 34 bille/plan (Figure 19). Ce modèle reprend l’étude hertzienne du contact en tenant compte d’une force adhésive localisée dans la zone de contact. En dehors de la zone de contact, l’intensité de ces forces est nulle. Du fait de cette particularité, le centre de contact est soumis à une contrainte de compression, la périphérie est soumise à une contrainte de traction ce qui se traduit par une tension infinie entre les surfaces dès que les surfaces ne sont plus en contact. Charge normale, F ( b ) Contrainte de compression R Contrainte de traction Aire de contact Figure 19 : Contact entre deux solides élastiques adhésifs soumis à un effort normal FN. Analyse des contraintes dans la zone de contact suivant l’approche de JKR. Cette théorie redéfinie un nouveau rayon de contact, a, pour le cas sphère plan [39] [59] [114]: R  a = .  F + 3.π.ω.R + 6.π.ω.R.F + (3.π.ω. R ) 2     K    avec K = 4 ⋅  1 − υ1 2 + 1 − υ2 2  3  E'1 E' 2  et avec ω 1 3 ( 30 ) −1 ( 31 ) l’énergie d’adhésion de Dupré. Dans le cas d’un massif élastique homogène semi infini, la force de séparation, appelée communément force d'adhérence, ne dépend pas des propriétés mécaniques du substrat (indépendante du module élastique). La force d’arrachement FA s’exprime avec la relation suivante : FA = 3 π.R.ω 2 ( 32 ) Thé orie de Derjaguin Muller Toporov ( DMT ) La différence entre le modèle de Derjaguin, Muller et Toporov, DMT [81] et l’approche précédente de JKR réside dans la prise en compte des forces d’adhésion à longue portée. Le modèle DMT est lui aussi basé sur la théorie de Hertz mais il prend en compte, cette fois, les interactions à longue distance. L’action des forces d’adhésion à l’intérieur du contact est négligeable mais est présente en périphérie du contact (Figure 20). L’effort réel d’interaction (P1) entre les deux solides est la somme de l’effort appliqué (FN) et des efforts d’adhésion (Fadh), P1 = FN + Fadh. Le rayon de contact, a, s’exprime alors : R  a = . ( F + 2.π.ω.R )  K   1 3 ( 33 ) La force d’arrachement s’écrit alors : FA = 2π. R.ω ( 34 ) Ce modèle sous estime la valeur du rayon de contact car il prend uniquement en compte les effets d’adhésion dans les zones qui ne sont pas en contact mais suffisamment proche pour générer des interactions. On peut supposer qu’en présence d’humidité, c'est-à-dire avec un ménisque entre les deux surfaces qu’il serait plus judicieux de choisir le modèle DMT que celui de JKR. La Tribologie des élastomères Charge normale, F 35 Contrainte de compression R Contrainte de traction 2a Figure 20 : Contact entre deux solides élastiques adhésifs soumis à un effort normal FN. Analyse des contraintes dans la zone de contact suivant l’approche de DMT. La transition de Maugis-Dugale / Paramètre de Tabor Tabor [113] a démontré que les modélisations JKR et DMT sont deux cas limites et introduit un paramètre d’élasticité λ pour établir une transition entre ces deux théories. Cette analyse a été poursuivie par Maugis [75]:  R  λ = 2.σ 0.    π.ω.K2  1 3 ( 35 ) Si λ tend vers l’infini alors le contact est modélisé par la théorie de JKR, alors que si λ tend vers 0 le contact suit le modèle de DMT. Avec σ0 la force attractive agissant sur la surface de contact issue de l’approximation de Dugale du potentiel de léonard Jones. La mise en œuvre de ce modèle est difficile mais est facilitée par les équations généralisées de COS (Carpick, Ogletree et Salmeron) qui estiment avec moins de 1% d’erreur, la valeur du rayon de contact a :  α + 1 + F / FAdh a = a0.   1+α     2 3 ( 36 ) Avec FN la charge normale appliquée, FAdh la force adhésive et a0 l’aire de contact sous chargement nul. Le coefficient α est un paramètre défini empiriquement qui est représentatif du paramètre d’élasticité λ. λ = −0,924.ln(1 − 1,02.α ) ( 37 ) Utilisation et synthèse des différents modèles Une carte d'adhésion [32] peut être construite en fonction du paramètre d’élasticité λ et de la charge normale au contact pour définir le type de modèle à appliquer (Figure 21). L’axe des ordonnées reporte le rapport entre la force normale externe appliquée et la force d’adhésion, ce qui peut être écrit comme suit: F = F π . W 12.R ( 38 ) Hertz P/π π.R.W12 Johnson Kendall Roberts Maugis Dugale Derjaguin Muller Toporov Bradley Paramètre d’élasticité, λ Figure 21 : Carte des modèles d’adhésion pour choisir celui à appliquer [32]. La Tribologie des élastomères 36 Une analyse réalisée [60] indique que les contacts avec des matériaux de faible élasticité tels que les élastomères correspondent à un contact modélisé par la théorie JKR. Dans le cas des matériaux à haut module d'élasticité, le comportement est majoritairement représenté par la théorie de DMT ou de Bradley. Approche spécifique de Baney et Hui pour un contact cylindre/cylindre Baney et Hui en 1996 [6] se sont intéressés au cas particulier d’un contact entre deux cylindres élastiques aux surfaces lisses en tenant compte d’une composante d’adhésion. L’atout de ce modèle est de considérer une part d’adhésion au sein du contact réel (analogue à la théorie de JKR) et une seconde part d’adhésion lorsque l’écart entre les surfaces est nanométrique (similaire à l’approche DMT). Son utilisation est limitée par l’hypothèse de surfaces lisses. 4. La Tribologie des élastomères Le mot tribologie, construit à partir des racines grecques « tribein » (frotter) et « logos » (discours, étude), a été proposé en 1968 par Salomon pour désigner la science qui étudie les phénomènes susceptibles de se produire entre deux systèmes matériels en contact, immobiles ou animés de mouvements relatifs. Il recouvre, entre autres, tous les domaines du frottement, de l’usure et de la lubrification. 4.1. Les lois classiques de frottement Léonard de Vinci (1452-1519) fut le premier scientifique à s’intéresser au mécanisme de frottement. Ses premières expériences lui ont permis de montrer l’existence d’une force seuil pour initier le glissement d’un objet en équilibre sur un plan incliné. Cette force seuil ne dépend pas de l’aire apparente de contact. Au delà, d’un angle d’inclinaison critique, le patin glisse. Ces travaux de Léonard ont été complètement oubliés pendant un demi siècle avant d’être redécouverts par Guillaume Amontons en (1663-1705).
36,375
0fd0ab8b7df2f1138481ea2aa9ed5774_1
French-Science-Pile
Open Science
Various open science
2,006
La psychologie cognitive survivra-t-elle aux sciences cognitives ?. Psychologie Française, 1999, 44, pp.265-283. &#x27E8;hal-00089284&#x27E9;
None
French
Spoken
6,673
10,938
Publié dans Tiberghien, G. (1999). La psychologie cognitive survivra-t-elle aux sciences cognitives? In J-F. Richard, & G. Tiberghien, (Eds.). Epistémologie et Psychologie. Psychologie Française, 44 (3), 265-283. La psychologie cognitive survivra-t-elle aux sciences cognitives? Guy Tiberghien Institut des Sciences Cognitives, Lyon • Bien que les sciences cognitives aient atteint en quelques décennies une maturité scientifique et une reconnaissance institutionnelle difficilement contestables, leur définition est toujours problématique et leur origine même est encore discutée. Cette situation n'est paradoxale qu'en apparence étant donné la déstabilisation épistémologique considérable engendrée par cette nouvelle approche dans la rassurante classification du savoir héritée d'un positivisme dominateur . • C'est tout d'abord la définition même des sciences cognitives qui pose problème. Cela va du simple déni de cognition à une réduction plus ou moins subtile du concept de cognition en passant par un oecuménisme de bon aloi. On peut, par exemple, affirmer que les sciences cognitives ont toujours existé et que cette expression est purement "tautologique". Certains plaident pour une définition consensuelle des sciences cognitives, vaste "archipel" de disciplines (psychologie, informatique, neurobiologie, linguistique, etc.) dont la coopération devrait permettre d'élucider les processus de la connaissance (Vergnaud, 1991). Cette définition, en évitant tous les problèmes, est sans doute recommandable pour les institutions qui ont à gérer les sciences cognitives, mais elle est de peu d'utilité scientifique. Il y faut une prise de risque plus grande et un point de vue inévitablement plus réducteur. En intelligence artificielle on aime, par exemple, à parler de "système" cognitif, voire "d'être intelligent" ou d'intelligence "en général" (Simon & Kaplan, 1989) ; les philosophes de la cognition préfèrent étudier "l'esprit" ou "l'esprit humain" (Andler, 1992). Cet esprit là peut être étudié sans référence explicite au cerveau, comme le font classiquement les philosophes et les psychologues, mais il peut aussi être mis en relation avec lui, comme en neuropsychologie et, plus généralement, dans les neurosciences. Ces dernières prises de position sont plus engagées, ce qui est peut-être un gage de progrès, mais elles sont toujours exposées à quelque forme de réductionnisme théorique ou disciplinaire. • Ce débat sur la définition des sciences cognitives n'est pas indépendant, bien sûr, de la question des origines des sciences cognitives. La façon dont on fait l'histoire n'est pas une question mineure. Elle détermine, au contraire, la position relative des diverses disciplines au sein des sciences cognitives, le type de définition qui en résulte et les problèmes empiriques et théoriques prioritaires. Ainsi, il n'est pas indifférent de situer l'origine des sciences cognitives au moment de l'émergence de la "première cybernétique" — après la seconde guerre mondiale — ou de la situer lors du débat entre gestaltistes, behavioristes et néo-behavioristes — entre la première et la seconde guerre mondiales. Dans la premier cas, le rôle et la place de l'informatique sont décisifs et celui de la psychologie relativement éclipsé (Dupuy, 1994, p. 27). Dans le second cas, la source des sciences cognitives est inséparable du développement de la psychologie cognitive dont le rôle central est alors évident. Le cognitivisme est, en effet, une théorie psychologique bien antérieure au sciences cognitives ; il en a d'ailleurs largement préparé l'avènement en rompant progressivement avec le behaviorisme entre 1920 et 1940 (Gardner, 1985/1993). A fortiori, il ne saurait être évidemment incarné dans une théorie unique ou dans les travaux d'un seul auteur. • En réalité, à l'origine, il n'y a pas une mais deux révolutions cognitives: la première, dans laquelle la psychologie a joué un rôle majeur, voit l'émergence d'un nouvel objet scientifique, la représentation mentale ; la seconde, inséparable de l'essor de l'informatique, pose que la représentation mentale peut-être décrite par un langage formel et simulé par un programme informatique mémorisé. La première révolution est théoriquement fondamentale et indissociable de l'histoire de la psychologie scientifique. La seconde révolution est quasiméthodologique, plus contingente, si l'on préfère, car elle a été provoquée par l'évolution "technologique" de nos artefacts de modélisation et de simulation. • Il est donc difficile de nier, bien qu'on puisse la taire, une contribution historique majeure de la psychologie dans le développement des sciences cognitives. Cependant l'éclatant succès des sciences cognitives soulève de nouvelles interrogations. La psychologie cognitive a-telle encore un avenir ou sera-t-elle complètement réduite, à terme, aux sciences cognitives... sera-t-elle même "dévorée", pour reprendre l'expression de Gardner, par les neurosciences cognitives? Les craintes des psychologues de la cognition répondent souvent à certaines déclarations réductionnistes, les premières n'étant pas toujours justifiées et les secondes parfois prématurées (Gardner, 1985/1993, pp. 326-328 ; Tiberghien & Jeannerod, 1995, p. 181). L'évolution récente montre, au contraire, une extension considérable des méthodes, des paradigmes et des modèles psychologiques à d'autres champs des sciences cognitives. Ce n'est pas, semble-t-il, la psychologie cognitive qui est réduite à une description neurophysiologique. Au contraire, les neurosciences ne peuvent plus faire aujourd'hui l'économie d'une approche cognitive, la seule qui puisse, à terme, rendre intelligible son objet d'étude, le cerveau. Quels que soient les aléas institutionnels, la psychologie cognitive ne disparaîtra pas — scientifiquement, j'entends — car elle a été à l'origine même des sciences cognitives, son développement en est indissociable et elle est maintenant au coeur même des neurosciences cognitives. D'ailleurs, c'est peut-être la psychologie cognitive qui est en train d'assimiler progressivement les formalismes computationnels et la connaissance du fonctionnement cérébral, ce qui lui permet d'interagir, de façon de plus en pertinente, avec les autres disciplines dans une science de la cognition qui deviendra sans doute de plus en plus intégrée. • De la psychologie philosophique à la psychologie cognitive C’est un fait bien connu que la psychologie scientifique ait eu à rompre avec la philosophie afin de se réaliser pleinement. Cette rupture commença à la fin du dix-neuvième siècle mais elle ne fut vraiment accomplie, en France, qu’au milieu de ce siècle. Le libre développement de la psychologie l’a donc conduit à rejeter radicalement l’antipsychologisme kantien. Ce rejet l’a conduit à adhérer à un empirisme plutôt radical et à manifester, de façon durable, une relative méfiance à l’égard de toute réflexion philosophique. Cette philosophie "spontanée" des psychologues, préférant le phénomène à l'essence, s'illustra de façon exemplaire dans le programme behavioriste. S’il était impossible de falsifier les idées pures, il restait possible d'expérimenter sur les comportements. • Toutefois, plusieurs philosophes (Brentano, Husserl, Von Ehrenfels) n’adhéraient pas au pessimisme psychologique de Kant. Cela laissait déjà augurer de nouvelles rencontres avec la psychologie scientifique et l’influence de la gestalttheorie en portera d’ailleurs témoignage. Plusieurs décennies plus tard, les sciences cognitives vont même contraindre la psychologie scientifique à se confronter, une nouvelle fois, à la philosophie sur des questions aussi fondamentales que l’intentionnalité ou la conscience (Pacherie, 1993). Nous reviendrons sur cet étonnant retour des choses qui peut apparaître, au choix, soit comme une «nouvelle» alliance épistémique soit comme une «revanche» du rationalisme philosophique sur l’empirisme psychologique. • A la fin du siècle dernier, la réflexion rationnelle, de nature introspective, cessa d'être la méthode d’exploration privilégiée de la psychologie. Il lui fallait un substitut, ce fut la méthode expérimentale. La psychologie scientifique naissante a littéralement été subjuguée par les succès des sciences physiques et naturelles (Donders, Helmhotz) et les avancées des mathématiques (Boole, Galton). Tout semblait possible et l’expérimentation, alliée aux méthodes statistiques, allait permettre d’édifier une psychophysique objective (Fechner, Weber), une chronométrie mentale (Donders), et les bases de ce qui allait apparaître comme une nouvelle "chimie mentale" — pour reprendre une expression qui allait connaître son succès bien des années plus tard (Estes, 1960). La psychologie allait devenir physiologique, fonctionnaliste et associationniste. Tout était prêt pour l’irrésistible ascension du behaviorisme. L’hégémonie de la psychologie du comportement allait être assurée pendant la première partie de ce siècle. Le behaviorisme allait imposer un concept clé, le comportement, un paradigme opérationnel, le schéma S-R, et un programme de recherche, l'apprentissage. Mais que l'on ne se méprenne pas, la mise entre parenthèses méthodologique des réalités mentales constituait une des conditions nécessaires à leur étude expérimentale ultérieure. Cette "révolution copernicienne" du behaviorisme, selon la belle expression de Goustard a consisté a dessaisir, par une sorte de restriction expérimentale, les centres au profit de la périphérie (1959, p. 117). Il en a coûté une nécessaire rupture avec la psychologie philosophique. Mais la pierre de touche de cette rupture était bien la possibilité d'un contrôle expérimental des phénomènes psychologiques et non la mise à l'encan définitive des phénomènes mentaux, de la conscience ou de l'intentionnalité. • Le behaviorisme progressa alors rapidement dans la compréhension des phénomènes de conditionnement et d'apprentissage, animal et humain. L’apogée de cette entreprise peut être précisément datée en 1943, année de la publication par Hull de son "Principles of Behavior". Cette théorie quasi-formalisée de l’apprentissage représente sans doute le point ultime de l’avancée de la psychologie du comportement. Elle ne sera pas dépassée et échouera quand elle sera appliquée aux apprentissages les plus complexes, comme le langage ou les habilités cognitives. Ce sont ainsi les contradictions et les limitations mêmes du behaviorisme qui ont donné naissance au cognitivisme en psychologie. • La crise du behaviorisme a cependant été largement préparée par des théories dissidentes apparues en psychologie entre 1920 et 1940: la théorie de la Forme (Köhler, Wertheimer), la théorie topologique du champ (Cartwright, Lewin) et l’épistémologie génétique (Piaget). Peu à peu ces théories imposeront un nombre limité d'idées qui contribueront à façonner le concept de cognition: 1) ce n’est pas l’association qui détermine l’organisation du psychisme mais l’inverse ; 2) l’activité psychologique peut être décrite en termes d’attraction-répulsion dans des champ de forces perceptives, conceptuelles et motrices ; 3) le développement de la pensée humaine ne résulte pas d’un processus purement cumulatif d’acquisitions élémentaires mais obéit à une logique sous-jacente. • Certes, ces attaques extérieures ont peu à peu ébranlé tout l’édifice behavioriste. Mais c’est de l’intérieur même que le behaviorisme a littéralement implosé. C’est tout d'abord Tolman (1925b, 1948) qui a été contraint, l'un des premiers, de postuler des états représentationnels ("cartes mentales") et même intentionnels (réponses vicariantes) pour expliquer les apprentissages latents et l'orientation spatiale chez l’animal. Les hypothèses tolmaniennes ont ainsi engendré un néo-behaviorisme qui s’est de plus en plus émancipé de la règle behavioriste: Hull est amené à postuler des réponses implicites anticipatrices de but entre les stimulus et les réponses (1952) ; les théories médiationnelles réintroduisent une certaine forme d’état représentationnel ou émotionnel, observable "en principe" ou "potentiellement", entre les états objectivement observés de l'environnement et le comportement (Osgood, 1960 ; Spence, 1956 • Tout était donc prêt pour l'avènement de la psychologie cognitive. En 1948, lors de la Conférence Hixon au Caltech, Lashley récuse avec force la psychologie du comportement, impuissante à rendre compte de l’organisation de nos conduites perceptivo-motrices les plus complexes, démunie pour expliquer le langage et acculée à s’auto-détruire en reconnaissant l’importance de variables intermédiaires ou hypothétiques que presque plus rien ne séparait des représentations mentales. Le paradigme cognitiviste pouvait naître et la psychologie cognitive allait rapidement supplanter le behaviorisme et imposer un nouveau concept clé, une nouvelle méthodologie et un nouveau paradigme. C'est cette première révolution cognitive qui va rendre possible l’émergence des sciences cognitives. • De la psychologie cognitive aux sciences cognitives La psychologie expérimentale, en rupture de ban avec le behaviorisme, a donc contribué à la genèse des rencontres fondatrices de Hixon et de Macy. Dans le creuset de la cybernétique, la psychologie est entrée en contact direct, et frontal, avec la neurophysiologie, la théorie de l'information et l'informatique. De cette rencontre allait émerger la psychologie cognitive dont l'essor deviendra irrésistible dans la décennie 1950-1960. C'est incontestablement d'une révolution dont il s'agit mais elle s'effectuera en deux temps qu'il convient de ne pas confondre. • La première révolution cognitive consistera à poser que l'objet d'étude de la psychologie est la représentation mentale et que le comportement n'est qu'un simple moyen d'accès objectif permettant la reconstruction des propriétés des états mentaux. C'est évidemment l'acte de décès du behaviorisme. La psychologie cognitive admet, de plus, que le psychisme peut être considéré comme un système de traitement de l'information composé de modules fonctionnels autonomes, spécialisés et agencés dans une architecture contrôlée par un système de supervision. C'est l'acceptation d'un modèle de la pensée fondé sur des principes d'organisation séquentielle ou parallèle (processus "bottom-up") et de rétroaction (feedback, processus "top-down") qui consacre l'influence de la théorie de l'information mais aussi celle du projet de la première cybernétique. Ce nouveau paradigme rendra possible l'étude expérimentale de toutes les questions dont l'approche avait été suspendue, ou à peine esquissée, par la psychologie du comportement : la représentation des connaissances et la catégorisation (Anderson, Rosch), l'attention (Broadbent), le langage (Chomsky, Miller), la mémoire (Miller, Quillian) et le raisonnement (Bruner). Les deux décennies suivantes confirmeront le statut dominant du cognitivisme dans la psychologie expérimentale ( pour une revue : Anderson, 1984 ; Pylyshyn, 1982 ; White, 1983). • La première révolution cognitive est donc inséparable de l'évolution de la psychologie scientifique. Le dire ne conduit pas, bien sûr, à sous-estimer le rôle majeur d'autres disciplines convergentes. Cette révolution est ainsi fortement corrélée avec les progrès de la neurophysiologie et de la neurologie dont les découvertes permettent de poser en des termes nouveaux la question des rapports entre le cerveau et l'esprit. Le bouleversement technologique provoqué par l'apparition des premiers ordinateurs qui réalisent, avec le théorème de Gödel et la machine de Turing, une intégration opérationnelle des mathématiques, de la logique et de la programmation binaire en est aussi un facteur essentiel. Les Conférences de Macy (1946-1953) et Hixon (1948-1960) sont un bon indicateur social et intellectuel de cette première révolution cognitive (pour une revue : Dupuy, 1985, 1994 ; Pélissier & Tête, 1995). Cependant elles n'en sont pas, à proprement parler, le point d'origine. Elles sont plutôt le révélateur et l'amplificateur de la crise interne du behaviorisme et elles demeureraient peu compréhensibles si elles n'étaient pas mises en relation précise avec l'histoire de la psychologie scientifique et, en particulier, avec l'antagonisme théorique, beaucoup plus ancien, entre behaviorisme et gestalttheorie. On ne devrait donc pas être surpris, outre mesure, de constater que, dès les années 20, les concepts de cognition, d'intention, de but, et même de conscience, étaient déjà au centre des préoccupations de certains béhavioristes. Ce sont précisément ces concepts et ces thèmes qui vont être l'objet de controverses permanentes non seulement entre béhavioristes mais aussi avec les gestaltistes. Ce sont eux aussi qui vont constituer "l' amorce" de cette première révolution cognitive et alimenter largement les premiers débats fondateurs. D'ailleurs, à l'origine, la cybernétique de Rosenblueth, Wiener, et Bigelow est encore fortement marquée par le behaviorisme psychologique et McCulloch, lui-même, se donne bien un projet psychobiologique d'inscription de l'esprit dans les neurones. Mais la conquête de la psychologie par la cybernétique échoua. Dans l'ensemble, la psychologie scientifique, refusa la forme de néo-behaviorisme neuronal que lui suggérait la première cybernétique et adhéra au cognitivisme. • Si la psychologie cognitive et la cybernétique résultent de cette première révolution, les sciences cognitives -- au sens où nous les concevons aujourd'hui -- étaient encore dans les limbes. Il faudra attendre le milieu des années 50 pour que les intenses débats sur les relations "cerveau-esprit-machine" aboutissent à la prise de conscience qu'une nouvelle science était peut-être en marche. Bien que le premier emploi de l'expression "sciences cognitives" puisse être précisément daté (1970), c'est en 1956 que le programme scientifique des sciences cognitives émerge lors d'une importante Conférence au MIT, à Cambridge (MA). Participent à cette Conférence, entre autres, Chomsky, Hubel et Wiesel, Miller, Newell & Simon,. Ce sont incontestablement la date et le lieu emblématiques de la seconde révolution cognitive. • En effet, la première révolution cognitive résulte d'une double rupture, d'une part avec le behaviorisme psychologique, et d'autre part avec le néo-behaviorisme de la première cybernétique. Mais s'il devenait possible d'étudier expérimentalement la représentation mentale, il fallait nécessairement en proposer une description opérationnelle. C'est ce que réalisa la seconde révolution cognitive en décrivant les représentations mentales sous la forme de symboles dont l'inscription physique dans le cerveau était postulée. L'esprit pouvait alors être présenté comme le produit d'une manipulation formelle des symboles opérée par le cerveau, assimilé lui-même à un système de traitement de l'information, à une machine computationnelle. La pensée était donc structurée comme un langage formel... la pensée était elle-même un langage, un "mentalais" (Fodor & Pylyshyn, 1988). Si le comportement ne permettait pas d'atteindre la pensée, il fallait bien inventer 'outil épistémique permettant de l'objectiver. En réduisant la pensée à un langage, le cognitivisme faisait coup double: il définissait un véritable "comportement" logique et retrouvait ainsi un indicateur observable et pouvant être simulé sur un ordinateur. Sous l'influence de la première cybernétique, la science cognitive aurait ainsi pu être d'emblée connexionniste et neuronale, en continuité avec le néo-behaviorisme, mais cette option théorique fut provisoirement abandonnée. La représentation mentale, symbolique, devint le concept unificateur des sciences cognitives, voire son dogme incontestable. Les sciences cognitives originelles, ou "de stricte observance", ne peuvent plus dès lors être dissociées de la psychologie cognitive dont l'évolution va être également, et pour un temps, très influencée par le développement de l'Intelligence Artificielle (IA). Les sciences cognitives "représentationnelles" vont être dominantes pendant près d'une vingtaine d'années, jusqu'au milieu des années soixante-dix. Mais elles vont être contestées, à partir de cette date, par le programme connexionniste qui réalise une sorte de revanche posthume de la première cybernétique sur le cognitivisme orthodoxe, une révolution dans la révolution. Le connexionnisme peut être considéré, sous un certain angle, comme un retour aux origines néo-behavioristes et cybernétiques des sciences cognitives. Son essor s'explique d'abord par les difficultés rencontrées par le cognitivisme représentationnel et, en particulier, par sa difficulté à modéliser les processus de contrôle des architectures modulaires de la cognition. L'essor de la psychologie mathématique a également joué un rôle déterminant dans l'apparition du programme connexionniste. Il est ainsi beaucoup plus proche des idées de McCulloch et de Lashley, que de celles de Von Neumann et de Simon. La cognition n'est plus décrite en termes de représentations symboliques mais en termes d'états globaux d'un réseau d'unités de traitement en interconnexion. Ce sont des règles de changement local qui déterminent le changement d'état global du réseau et ses propriétés émergentes s'adaptent progressivement aux variations de l'environnement. Les symboles du programme "représentationnel" étaient manipulés par des computations logiques, la computation des états locaux d'un réseau de neurones est purement numérique. En d'autres termes, c'est l'ordinateur digital qui est la métaphore de référence des sciences cognitives orthodoxes, alors que c'est le cerveau qui est la métaphore de référence du connexionnisme (Hinton, 1989 ; McClelland, 1986). Au fond, le connexionnisme est un véritable behaviorisme neuronal en ce sens qu'il "remplit" la boite noire d'un réseau de connexions dont les états sont, en principe, des observables. • Sur le plan épistémologique, l'opposition entre le "représentationnalisme" et le connexionnisme semble totale. Toutefois au niveau des programmes de recherche, les différences paraissent beaucoup moins contrastées. En effet, le problème de l'organisation et de l'émergence des représentations symboliques (référence, intentionnalité), à partir des propriétés sub-symboliques d'un réseau, demeure entier. Les théories cognitives classiques tentent de résoudre cette question en réduisant la signification à une description syntaxique, logique et propositionnelle. Celle-ci est donc relativement arbitraire et imposée de l'extérieur, si l'on ose dire, au système cognitif. Les théories connexionnistes, en mettant entre parenthèses le problème de l'émergence de la signification, retrouvent le confort méthodologique du behaviorisme d'antan, mais ne contribuent pas plus que le cognitivisme orthodoxe à la solution du problème sémantique (Shanon, 1992 ; Tiberghien, 1996). A moins, bien sûr, d'admettre que les états locaux codent eux-mêmes des symboles - mais, dans ce cas, la frontière entre les deux classes de théories s'estompe fortement et le connexionnisme devient lui-même représentationnel (Hinton, 1986 ; Rumelhart & Todd, 1993, pp. 13-21). On comprend que plusieurs chercheurs tentent, malgré les difficultés méthodologiques et théoriques considérables, de développer des systèmes hybrides, symbolico-connexionnistes. Dans ce contexte, les théories représentationnelles et connexionnistes décriraient, de façon non contradictoire, des niveaux d'organisation différents: processus de haut niveau gouvernés par des règles, pour les premières, et processus perceptifs, de type classification de patterns, pour les secondes (Anderson, 1990 ; Smolensky, Legendre, & Myata, 1993). • Toutes ces difficultés peuvent expliquer l'apparition, dans les années 80, d'un programme qui rejette toute orthodoxie, qu’elle soit représentionnaliste ou connexionniste. Ce mouvement radical postule que la cognition peut être adéquatement décrite sous la forme d'un réseau. Cependant, pour qu'un tel réseau puisse produire de la signification, il doit nécessairement posséder une histoire, agir sur son environnement et être sensible aux variations contextuelles de cet environnement. D'ailleurs cette distinction entre système cognitif et environnement doit, elle même, être réévaluée et le concept de représentation peut aussi être mis radicalement en cause. Ainsi, le monde n'est pas préformé et n'est pas progressivement représenté, le monde et l'action sont co-déterminés. C'est l'historique des actions en contexte qui fait émerger un monde de significations, un monde "énacté", pour reprendre l'expression de Varela (1988, 1996). Si le connexionnisme peut apparaître, rétrospectivement, comme une revanche posthume de la première cybernétique, on devine aussi tout ce que le programme radical de l'énaction doit à la seconde cybernétique, celle de Foerster, Ashby et Grey-Walter. L'avenir de la psychologie cognitive... et celui des sciences cognitives La contribution de la psychologie scientifique à la naissance des sciences cognitives a donc été déterminante. Le behaviorisme tolmanien et la gestalttheorie, en tentant de surmonter les contradictions du behaviorisme orthodoxe, ont préparé l'émergence des théories représentationnelles. L'épistémologie génétique de Piaget, en proposant une description axiomatisée de l'intelligence, a été une des sources importantes des théories formelles de la connaissance dans les sciences cognitives. Le néo-behaviorisme hullien et la mathématisation croissante de la psychologie (modèles de mesure psychophysique et modélisation stochastique de l'apprentissage) ont préparé la voie au programme connexionniste. Le connexionniste radical, lui-même, reprend d'ailleurs de nombreuses hypothèses formulées par la gestalttheorie, la psychologie topologique et la psychologie écologique. A partir des années 70, l'histoire de la psychologie cognitive devient inséparable de celle des sciences cognitives. Elle se caractérise par des transferts permanents entre les différentes composantes des sciences de la cognition: transferts méthodologiques (analyse chronométrique des temps de réaction, oculométrie, méthodes psychophysiques, paradigmes d'amorçage, technique de dissociation de processus, par exemple), transferts empiriques (loi de la spécificité de l'encodage, empan mnémonique, effet de prototypie, fonction précisionrapidité, par exemple), transferts théoriques (distinction épisodique/sémantique, déclaratif/procédural, implicite/explicite, par exemple). L'intégration des recherches devient si grande que d'aucuns pourraient être tentés de prédire la fin de la psychologie cognitive -et peut-être même la fin de la psychologie! Si l'on fait provisoirement abstraction des contraintes institutionnelles, l'avenir de la psychologie cognitive dépendra, en grande partie, de la solution qui sera apportée à plusieurs questions méta-théoriques. Trois de ces questions ont, me semble-t-il, une portée épistémologique critique, mais sans doute n'est-ce au fond qu'une seule et même question. Il s'agit, tout d'abord, des implications de l'hypothèse selon laquelle la cognition est organisée de façon modulaire. La deuxième question est lancinante et porte sur la relation entre la cognition et le cerveau. La troisième est celle du rapport de la philosophie aux sciences cognitives, en général, et à la psychologie cognitive, en particulier. • La modularité de l'esprit et l'idéologie modulariste L'hypothèse de la modularité de l'esprit, défendue par Fodor en 1983 établit que tout stimulus distal est transformé par des systèmes "subsidiaires" (perceptuels) en un ensemble de signaux neuronaux analogiques qui peuvent être traités par des systèmes "périphériques". Ces derniers réalisent des inférences calculatoires obligatoires, spécifiques et non conscientes. Plusieurs critères permettent, en principe, d'identifier ces systèmes périphériques: 1) ils sont propres à un domaine (perception de la couleur, de la forme, des visages, etc.) ; 2) leurs opérations sont obligatoires et ne peuvent être contrôlées intentionnellement ; 3) ils sont rapides ; 4) ils sont informationnellement cloisonnés et insensibles aux influences latérales des autres systèmes périphériques et, a fortiori, aux influences de plus haut niveau; 5) leurs sorties sont superficielles ; 6) ils s'inscrivent physiquement dans des architectures neuronales fixes ; 7) ils présentent des défaillances spécifiques ; 8) ils présentent une ontogenèse caractéristique (Fodor, 1983/1986). Les sorties de ces systèmes périphériques sont combinées et intégrées dans les systèmes "centraux" analogiques et non spécifiques. Ils mettent en jeu, simultanément, plusieurs sorties des systèmes périphériques (isotropie computationnelle). Leurs opérations sont inscrites dans de nombreux circuits neuronaux distincts (isotropie neuronale). Ils permettent les inférences rationnelles, la fixation de croyance, la mémoire et, plus généralement, la pensée. En résumé, l'hypothèse de la modularité rompt radicalement avec la théorie holistique de l'esprit et repose sur une architecture séquentielle et ascendante ("bottom-up") pour décrire le flux des trait cognit ifs . • Cette hypothèse doit être distinguée de ce que j'appellerai l'idéologie "modulariste", sorte de pensée unique d'une espèce de cognitivisme post-moderne. Elle repose sur certains propos imprudents et/ou provocateurs tenus par Fodor et que l'on peut résumer sous la forme de "lois", les trois "lois de Fodor": 1) "Plus un processus est global, moins on sait de choses à son sujet" (1983/1986, p. 140) ; 2) "il n'existe pas de psychologie scientifique sérieuse des processus centraux" (1983/1986, p. 166) ; 3) "Si l'on ne sait rien de la neuropsychologie de la pensée, c'est qu'il n'y a rien à savoir sur la neuropsychologie de la pensée" (1983/1986, p. 153). L'adhésion à cette conception signifierait incontestablement la fin de la psychologie cognitive puisque celle-ci étudie les systèmes périphériques mais n'exclut pas la possibilité d'une exploration des systèmes centraux. Se limiter à l'étude des seuls systèmes périphériques faciliterait incontestablement la réduction, sans conditions, de la psychologie aux neurosciences (cognitives), voire à la "neuroscience cognitive". Mais cette théologie cognitive, normative et autoritaire, est scientifiquement indéfendable. Certes, on connaît en général moins de choses sur les processus globaux (qui sont, en général, plus complexes) que sur les processus locaux (qui sont, en général, plus simples) mais il n'en découle, ni logiquement ni empiriquement, que les seconds nous sont toujours connaissables tandis que les premiers nous resteraient à jamais opaques. Il y a d'ailleurs d'importantes différences entre le niveau de connaissance que nous possédons sur les divers systèmes périphériques dans des domaines différents (la motricité, la vision, l'olfaction, etc.). Affirmer qu'il n'y a aucune psychologie sérieuse des processus centraux témoigne surtout d'une méconnaissance de l'histoire de la psychologie scientifique. Les recherches sur la mémoire humaine sont un contre-exemple évident de cette affirmation : c'est un des domaines de la psychologie qui a sans doute le plus progressé au cours des deux dernières décennies. Les résultats obtenus et les théories de la mémoire ont d'ailleurs contribué très largement au développement même de la neuropsychologie (Schacter & Tulving, 1994 ; Tiberghien, 1997). D'ailleurs, au cours des dernières années, les nouvelles technologies des neurosciences (méthode lésionnelle, imagerie cérébrale, potentiels évoqués, etc.) ont confirmé de nombreuses empiriques et validé plusieurs théories élaborées, dans ce domaine, par la psychologie cognitive. • Il en va, bien sûr, autrement de l'hypothèse de la modularité. Elle doit être évidemment prise au sérieux et évaluée très précisément. La valeur heuristique de cette hypothèse est d'ailleurs incontestable. Elle a engendré une stratégie de recherche particulièrement efficace fondée sur la dissociation des processus cognitifs. Elle a également permis une convergence rapide entre les recherches en psychologie cognitive et celles conduites en neuropsychologie et en neurosciences. Et pourtant, dans sa formulation fodorienne initiale, elle est sans aucun doute fausse ou, à tout le moins, beaucoup trop simplificatrice pour rendre compte de la complexité des observations expérimentales ou cliniques. • Considérons, à titre d'illustration, la reconnaissance des visages dont la nature modulaire a été explicitement supposée par Fodor (1983/1986, p. 68). Si l'on accepte la conjecture fodorienne, on devrait observer que l'ensemble des critères de la modularité s'appliquent à la reconnaissance des visages. Or la question est très controversée. Tout d'abord la définition de ce domaine pose problème puisque la reconnaissance du visage implique nécessairement un traitement d'informations très élémentaires (forme, contour, contraste, couleur, etc.) et d'informations beaucoup plus complexes (angle de vue, genre, expression, identité, etc.). En d'autres termes, la reconnaissance met en oeuvre une "cascade" de traitements, de complexité variable, modulés par l'orientation et le niveau attentionnel ainsi que par le contexte général de l'activité et le type de décision requis. Bien sûr, on observe effectivement, dans le cortex occipito-temporal, des ensembles de neurones qui répondent très spécifiquement aux visages et à leurs propriétés. Mais on constate que ces neurones "faciaux" sont situés dans des régions qui répondent aussi, dans des proportions variables, à d'autres stimuli et à une grande variété de dimensions élémentaires. Pour ne citer qu'un exemple, des neurones du cortex temporal du singe sont sensibles à l'identité et ne sont pas activés par des variations de l'expression faciale -- alors que des neurones sensibles à l'expression peuvent répondre aussi à l'identité (Hasselmo, Rolls, & Baylis, 1989 ; Perrett et al., 1984. De plus, les régions activées varient selon le type de traitement facial: la discrimination du genre active la surface ventrale du cortex temporal antérieur, l'identification du visage active une région plus antérieure et enfin, la dénomination active une région plus antérieure encore. En d'autres termes tous les attributs visuels d'un objet ne sont pas stockés, de façon unitaire, dans une région définie du cortex, et leur traitement spécifique peut faire intervenir des régions différentes (Ungerleider, 1995, pp. 770-771 ; Tulving, 1995). Attirer l'attention sur ce point ne veut pas dire, on l'aura compris, qu'il n'y a pas de localisation fonctionnelle au niveau cérébral, ce qui serait contraire aux données empiriques, mais cela remet en cause une conception souvent trop étroite du cloisonnement informationnel. • La neuropsychologie de la reconnaissance des visages confirme largement les conclusions neuro-anatomiques. Il existe, par exemple, un déficit neuropsychologique relativement rare, mais spectaculaire, qui se traduit par une incapacité à reconnaître les visage familiers: la prosopagnosie ou agnosie visuelle des visages. Ce trouble est associé à des lésions le plus souvent bilatérales, d'étendue variable, du gyrus occipito-temporal (gyrus fusiforme, gyrus lingual et gyrus parahippocampique). On pourrait considérer que cette défaillance spécifique, impliquant une architecture neuronale relativement fixe satisfait, en apparence, à au moins deux des critères essentiels de la modularité fodorienne. Une telle conclusion serait, à tout le moins, prématurée. En effet, selon les cas décrits dans la littérature, les caractéristiques des processus cognitifs perturbés sont très variables. Certains patients ont essentiellement des troubles perceptifs, de type métamorphosies, qui empêchent toute discrimination entre les visages ; d'autres présentent surtout des troubles catégoriels (du genre, de la race, de l'âge) de telle sorte que tous les visages paraissent similaires ; d'autres présentent principalement des troubles de l'estimation de la familiarité induisant un échec de la reconnaissance; enfin, d'autres ressentent normalement la familiarité mais sont incapables d'identifier la personne correspondant à un visage (Ellis, 1986). Si l'on se limite à un traitement particulier, l'expression faciale, on constate que certains patients prosopagnosiques ont un problème à percevoir et à catégoriser les expressions faciales alors que d'autres n'en ont pas (Davidoff & Landis, 1990 ; Sansone, 1994 ; Schweich & Bruyer, 1993). Ainsi, bien que les régions cérébrales impliquées dans la prosopagnosie soient assez précisément délimitées, les us cognitifs perturbés et leur architecture sont encore loin d'être élucidés. A tel point que l'on parle prudemment de formes différentes de prosopagnosies dont l'origine peut être perceptive ou mnésique et, dans ce dernier cas, consécutives à un dysfonctionnement des processus de la représentation ou de l'accessibilité (McNeil & Warrington, 1991 ; De Renzi, 1986). Comme le déclarait, très prudemment, Fodor (1983/1986, p. 130): "Tout mécanisme psychologiquement distinct (...) peut subir en principe (souligné par nous, GT) un handicap sélectif". On ne saurait mieux dire. • Ainsi une conception modulaire stricte des processus périphériques est difficilement compatible avec une analyse rigoureuse des données empiriques. Mais la conception fodorienne des systèmes centraux s'avère elle-même difficilement tenable. En effet certains processus centraux ne sont pas strictement isotropes et ont des propriétés qui les rapprochent des systèmes périphériques. Les recherches en neuropsychologie ont montré que certains domaines, comme la mémoire sémantique, sont associés à des architectures neuronales fixes. C'est ainsi que certaines lésions cérébrales entraînent un déficit, connu sous le nom d'anomie. Cette incapacité à se rappeler le nom des objets peut se révéler très spécifique et n'affecter que la dénomination des êtres vivants sans aucun déficit de la dénomination des objets artefactuels (Warrington & Shallice, 1984). De nombreux déficits sélectifs de la mémoire sémantique ont ainsi été observés : noms abstraits vs noms concrets, noms propres vs noms communs, etc.(Chertkow, 1990 ; Lucchelli & De Renzi, 1992 ; Warrington, 1981). On a aussi invoqué, de façon sans doute encore plus spéculative, l'hypothèse fodorienne de "domaine-spécificité" pour expliquer le développement ontogénétique de la catégorisation et de la représentation des concepts de haut niveau. Une telle hypothèse supposerait des principes d'organisation innés permettant de sélectionner, à un âge très précoce, des ensembles d'attributs corrélés afin de catégoriser l'environnement de façon pertinente (Pacherie, 1996 ; Spelke, 1990). • En définitive, que reste-t-il de la théorie générale de Fodor? Plus grand chose de sa pureté originelle et intransigeante. En effet, elle reposait sur un postulat essentiel opposant les systèmes périphériques aux systèmes centraux. Or les critères de définition des systèmes périphériques s'appliquent très inégalement, et souvent de façon partielle, aux différents niveaux de traitement et aux différents domaines d'information -- et ceci même pour les plus élémentaires. Pire, les systèmes dits centraux présentent également des propriétés qu'ils partagent parfois avec des systèmes périphériques. La conscience elle-même pourrait même être conçue, à la limite, comme modulaire (Tiberghien & Jeannerod, 1995, p. 183). Et, si tout est modulaire, comment est alors réalisée l'intégration de ces différentes sources d'information et les inférences logiques qui peuvent en découler? Enfin, seuls les trois derniers critères de Fodor permettent de différencier clairement un module fodorien d'une simple capacité sur-apprise. On comprend, dans ces conditions, que Baron-Coren préfère parler de mécanismes neurocognitifs, au lieu de modules, afin d'expliquer la nature préspécifiée du processus de lecture mentale dont le dysfonctionnement pourrait être à l'origine de l'autisme (Baron-Cohen, 1995/1998, p. 72). Faut-il donc maintenir cette dichotomie fodorienne dont la logique, si elle était poussée jusqu'à son terme, aboutirait à interdire tout programme de recherche en psychologie cognitive et, sans doute, en sciences cognitives? Evidemment non. Tout converge, au contraire, vers l'hypothèse plus complexe d'un continuum de traitements, organisés selon une architecture hautement interactive et très probablement en cascade, possédant à des degré s divers et sous des contraintes plus ou moins fortes, tel ou tel sous-ensemble des propriétés modulaires. S'il y a des modules, et surtout des quasi-modules, à différents niveaux de l'organisation cognitive, alors l'étude des systèmes centraux peut être raisonnablement envisagée. • La psychologie cognitive ne peut donc survivre si l'on accepte purement et simplement la logique fodorienne. Sous sa forme originelle, elle interdit l'étude des processus cognitifs centraux, dits de haut niveau. Sous sa forme amendée, elle réduit les processus centraux à des modules périphériques. Dans les deux cas ces postulats aboutissent, ou risquent d'aboutir, à un réductionnisme neurologique intégral. En effet, si tout processus cognitif est de type modulariste et si un module admet nécessairement une architecture neuronale fixe, les sciences cognitives se confondront, à plus ou moins long terme, avec les neurosciences. Celles-ci phagocyteraient alors inéluctablement la psychologie cognitive. Seules demeureraient les neurosciences cognitives et la cognition sera réduite aux seuls phénomènes susceptibles d'être décrits en termes de modules. Le modularisme fodorien ne se contente donc pas de dessaisir le centre au profit de la périphérie, il finit aussi par réduire le centre... à du périphérique! Le behaviorisme avait été beaucoup moins loin puisqu'il n'avait jamais nié les processus centraux, il les avait simplement mis provisoirement entre parenthèses. • Le réductionnisme neurobiologique et la nature des sciences cognitives La place et le devenir de la psychologie cognitive sont donc largement dépendants de la réponse que l'on peut apporter à la conjecture fodorienne. Mais derrière ce débat se dissimule un autre problème, encore plus fondamental, et qui en explique probablement l'intensité. Il s'agit en effet de savoir si les descriptions psychologiques de la cognition peuvent être progressivement réduites à des descriptions neurobiologiques. En d'autres termes, peut-on "naturaliser" l'esprit? • Cette question du réductionnisme neurobiologique n'est évidemment pas nouvelle mais les progrès récents de la neuropsychologie et, en particulier, des techniques d'imagerie cérébrale lui ont donné encore plus d'acuité. Ils ont aussi renforcé la croyance selon laquelle c'est une description de type neurobiologique, et non de type psychologique, qui permettrait d'expliquer la nature et les propriétés de la cognition. Autrement dit, ce seraient les neurosciences qui "illumineraient" la psychologie. Je suis d'un avis exactement opposé et je l'illustrerai de deux façons différentes. • Et tout d'abord, qu'apporte précisément l'observation des lésions cérébrales, provoquées ou observées, à la compréhension des phénomènes cognitifs. C'est évidemment une des pièces centrales de la discussion de l'hypothèse réductionniste. Plus précisément, est-il possible d'inférer le fonctionnement cognitif à partir des seules observations lésionnelles en neuropsychologie? Pour répondre positivement à une telle question, il faut accepter au moins deux méta-hypothèses, celle du "fractionnement" et celle de la "transparence" (Caramazza, 1986, 1992). L'hypothèse du "fractionnement" suppose qu'un processus cognitif "normal" (P) implique un l 'état du cerveau "normal" (M) et qu'un processus cognitif "pathologique" (P*) implique un état du cerveau affecté par une lésion identifiable (L) : P--->M et P*--->M+L. La première de ces hypothèses a trois implications : 1) elle suppose que le cerveau est cognitivement non homogène ; 2) elle admet un effet spécifique des lésions sur les processus cognitifs ; 3) enfin, elle considère que la méthodologie expérimentale de dissociation de comportements, classique en neuropsychologie, revient à dissocier des processus cognitifs. La seconde de ces hypothèses a également plusieurs implications: 1) elle suppose que le cerveau est un système modulaire, au sens fodorien du terme ; 2) elle admet une conception strictement additive des processus cognitifs ; 3) elle considère qu'une lésion déterminée n'agit que sur un seul processus (ou sous-processus) cognitif ; 4) elle reconnaît que les conséquences d'une lésion sont irréversibles. • L'hypothèse de fractionnement et celle de transparence sont classiquement admises en neuropsychologie mais elles ne vont pas de soi (pour une critique : Kosslyn & Intriligator, 1992 ; Morton, 1992). En effet, si la validité générale de l'hypothèse de fractionnement est confirmée par le rôle fonctionnel de nombreuses régions cérébrales, elle soulève toutefois de nombreuses difficultés. Il est clair, tout d'abord, que la localisation de régions du cerveau, spécialisées dans tel ou tel traitement cognitif, ne peut être décrite indépendamment des nombreuses interconnexions qui les relient. La neurologie a d'ailleurs beaucoup plus progressé dans l'étude de ces localisations que dans celle des interconnexions dont l'importance fonctionnelle est sans doute décisive. De plus l'effet des lésions varie sensiblement, à la fois selon leur étendue et selon les techniques (neurotoxiques ou par aspiration, par exemple) qui ont été mises en oeuvre pour les produire chez l'animal. Des lésions définies peuvent avoir des effets non spécifiques et des lésions diffuses peuvent avoir des effets caractéristiques (Sansone, 1994). Enfin, on sait aussi que de nombreux problèmes méthodologiques ne permettent pas de passer facilement, et directement, d'une dissociation comportementale à une dissociation de processus (Jacoby, 1993 ; Neely, 1989). L'hypothèse de la transparence peut également être critiquée car on dispose maintenant de nombreuses données psychologiques et neurologiques qui démontrent la non-linéarité du fonctionnement cérébral et la non-additivité des processus cognitifs (Globus, 1992). La réalisation de n'importe quelle tâche cognitive met nécessairement en oeuvre de nombreux processus cognitifs en interaction constante. Enfin plusieurs études de cas en neuropsychologie illustrent clairement la possibilité de stratégies compensatoires chez certains patients cérébrolésés (Bruyer , 1991). • L'étude des localisations fonctionnelles cérébrales par l'observation des lésions spontanées, chez l'homme, ou provoquées, chez l'animal, est donc à elle seule insuffisante pour reconstruire conceptuellement la cognition humaine. Comme le fait remarquer Gabrieli (1998, p. 88), le comportement des patients atteints de lésions cérébrales ne nous renseigne pas sur les processus perturbés, mais plutôt sur ce que leur cerveau peut encore réaliser en dépit même de la lésion. En définitive, cela revient à émettre un sérieux doute sur l'hypothèse de transparence. Mais l'hypothèse du fractionnement est tout aussi problématique et l'exploration des effets des seules lésions cérébrales ne peut apporter de connaissances directes sur le fonctionnement du cerveau normal.
19,907
63/tel.archives-ouvertes.fr-tel-00482783-document.txt_6
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,223
13,012
VI.4.2.4. Extension au cas d'autres métaux Pour aller plus loin dans l'étude de la possible "universalité" de cette méthode prédictive du coefficient Schulz-Flory, nous avons souhaité l'appliquer à des catalyseurs actifs en oligo- ou polymérisation de l'éthylène possédant un autre atome métallique que l'atome de fer considéré jusqu'ici. Par exemple, plusieurs auteurs ont étudié des catalyseurs au nickel qui génèrent des oligomères dans des conditions expérimentales variées. Keim et al. ont synthétisé une série de précatalyseurs au Ni(II) stabilisé par des ligands bidentates portant une fonction imine et phosphine (précatalyseurs N1, N2 et N3 en Figure 12).12 Bluhm et al. ont obtenu un type de catalyseurs au Ni(II) avec un ligand bidentate à fonctions amine et phosphine (précatalyseur N4 en Figure 12).13 Enfin, Keim et Schulz ont synthétisé une série de précatalyseurs au Ni(II) stabilisé par des ligands phosphino acide (précatalyseur N5 en Figure 12).14 Pour ce dernier cas, on précise que l'espèce active est du type [Ni(II)]0 alors que les autres structures précatalytiques conduisent, après activation, à des espèces actives de type [Ni(II)]+. En Figure 12 sont reportées les données expérimentales des réactions d'oligo- et de polymérisation de l'éthylène catalysées par les formes activées des espèces Ni(II). 153 Chapitre VI : Vers une prédiction du degré de polymérisation Ph iPr Ni Br Br Br Br iPr Ni Ph P P Ph iPr Ni Ph N N P Ph N iPr iPr Br Br Ph iPr tBu (N1) T=50 / P=30 / MAO α = 0,95 (N2) T=50 / P=30 / MAO α = 0,83 Ph Ph P iPr P N (N3) T=50 / P=30 / MAO α = 0,85 Ni iPr O Ni Br O Br (N4) T=22 / P=3 / MAO α = 0,36 (N5) T=50 / P=30 / polymères Figure 12 : Structures de précatalyseurs Ni(II) actifs en oligomérisation de l'éthylène après traitement par le cocatalyseur MAO (seul N5 ne nécessite pas de cocatalyseur) ; les conditions expérimentales (T en °C / P en bar / cocatalyseur) sont mentionnées, ainsi que la valeur Į expérimentale de chaque catalyseur ; toutes ces expériences ont été réalisées dans le toluène. La recherche de l'état d'oxyd ation et de spin le plus favorable pour chaque espèce s'est avérée non indispensable compte tenu d'études dans la littérature qui offrent des résultats convergents sur la nature des espèces actives pour ce type de complexes Ni(II).15 Ainsi, les structures moléculaires (complexes, TS insertion, TS BHT) ont été calculées en tant qu'espèces [Ni(II)]+ pour les catalyseurs N1, N2, N3, N4 et en tant qu'espèce [Ni(II)]0 pour le catalyseur N5. L'état de multiplicité singulet a été retenu et reste inchangé pour les réactions d'insertion et de terminaison par BHT. On précise que la fonctionnelle d'échange-corrélation utilisée est toujours B3 P avec le pseudopotentiel LanL2DZ pour décrire l'atome de métal et la base 631G(d,p) pour décrire les autres atomes. En Tableau 5 sont représentées les valeurs des barrières d'activation pour les réactions d'insertion et de BHT ainsi que les valeurs du coefficient Schulz-Flory théorique extraites de la relation (6.7) et calculées pour chaque catalyseur à T et P des expériences respectives (Figure 12). 154 Chapitre VI : Vers une prédiction du degré de polymérisation P et T expérimentales Catalyseur ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į (théorique) Į (expérimental) N1 18,15 29,32 11,18 0,85 0,95 N2 16,09 27,15 11,06 0,83 0,83 N3 18,68 28,34 9,66 0,75 0,85 N4 5,94 13,50 7,56 0,58 0,36 N5 20,52 34,85 14,34 0,93 polymères (cires) Tableau 5 : Enthalpies libres d'activation en kcal/mol (insertion, BHT) et valeur théorique du coefficient Į calculées à T et P expérimentales pour chaque catalyseur Ni(II) étudié. Les résultats montrent que les coefficients Schulz-Flory expérimentaux sont correctement reproduits par les calculs réalisés aux conditions de température et de pression de chaque expérience. Par exemple, le catalyseur générant des polymères (N5) possède un coefficient Į théorique (0,93) compatible avec la production majoritaire de polymères. Celui générant des produits légers (N4) a le plus faible coefficient Schulz-Flory (0,58). ‡ Donc, la relation entre le coefficient Į et δ∆GC2 →C4 permet de reproduire, avec une bonne cohérence, les coefficients Schulz-Flory obtenus à partir d'espèces catalytiques incorporant un métal différent du fer. Par ailleurs, ces résultats confirment à nouveau que le coefficient directeur de la relation (6.7) varie peu avec la température si l'on tient compte de ses ‡ variations dans le calcul de δ∆GC →C4. Enfin, cette nouvelle validation de la méthode renforce encore la pertinence des descripteurs et étend leur domaine d'application. VI.4. 2.5. Extension au cas du substrat butène-1 Dans cette section, on propose de considérer le cas du monomère butène-1 que nous avons étudié au chapitre V. En effet, dans ce précédent chapitre, nous avons reproduit, par des calculs DFT, les résultats expérimentaux de l'oligomérisation du butène-1 catalysée par l'espèce activée E.3(b) En considérant le chemin de réaction le plus favorable (celui qui génère les octènes linéaires), on souhaite appliquer notre méthode de calcul du coefficient SchulzFlory à partir de ce substrat différent de l'éthylène. Ainsi, la différence d'enthalpie libre Chapitre VI : Vers une prédiction du degré de polymérisation ‡ δ∆GC4 →C8 doit être évaluée entre la barrière d'activation pour la réaction d'insertion du butène- 1 dans la liaison Fe-butyl et la barrière d'activation pour la réaction de terminaison par BHT ‡ compétitive. On trouve que le descripteur δ∆GC4 →C8 est égale à 4,7 kcal/mol pour le plus favorable des chemins de réaction. La relation (6.7) nous donne une valeur Į égale à 0,40. Cette valeur de coefficient Schulz-Flory est une forte indication que très peu d'étapes d'insertion du butène-1 sont réalisées, avec une haute sélectivité pour les dimérisations ou trimérisations. Cette tendance est en pleine cohérence avec les résultats expérimentaux montrant une production d'environ 80 % de dimères et 20 % de trimères. Ce résultat intéressant indique que l'application du descripteur δ∆G ‡ semble possible avec des substrats oléfiniques différents de l'éthylène dans le but de prédire leur degré de polymérisation dans un catalyseur homogène. VI.4.3. Effets des substituants dans les catalyseurs bis(arylimino)pyridine au fer La validation de la méthode de détermination du coefficient Schulz-Flory ouvre plusieurs champs d'investigations possibles. Cette méthodologie développée devrait permettre de cribler rapidement divers catalyseurs. Mais elle peut aussi être un outil d'étude et de compréhension du comportement d'un catalyseur, par exemple vis-à-vis des changements de ses substituants. Expérimentalement, l'étude de l'impact d'un tel changement sur le coefficient Schulz-Flory peut être longue et coûteuse. La modélisation moléculaire peut alors permettre de rationaliser ces effets sur Į et aider les expérimentateurs dans la synthèse ciblée de nouveaux catalyseurs. L'un des objectifs de cette thèse est de mieux comprendre les catalyseurs bis(imino)pyridine au fer et plus spécifiquement les catalyseurs bis(arylimino)pyridine au fer. Étudier l'impact de la variation des substituants du ligand sur la nature des produits de réaction est donc un point important de notre étude. Le large champ d'action de ce type de catalyseurs, qui opèrent à tous les degrés de l'oligo- ou de la polymérisation des oléfines, est directement lié aux effets des substituants.8,16 Dans cette partie, l'utilisation de la méthode de détermination du coefficient Schulz-Flory, par le biais de la relation (6.7), nous a permis d'étudier en profondeur et de mieux comprendre le comportement des catalyseurs bis(arylimino)pyridine au fer vis-à-vis des changements de substituants sur le ligand. itre VI : Vers une prédiction VI.4.3.1. Méthode "de Hammet" L'étude du comportement des catalyseurs bis(arylimino)pyridine au fer avec des changements de substituants impose au préalable de connaître et de quantifier l'effet intrinsèque de chacun de ces substituants pour obtenir une base de comparaison valide une fois ceux-ci intégrés au catalyseur. Ainsi, nous avons voulu classer la force des effets électroniques de plusieurs substituants couramment utilisés. Une méthode de calculs a été employée pour connaître leur degré accepteur ou donneur d'électrons. Elle repose sur une technique dérivant de celle de Hammet pour quantifier les effets électroniques d'atomes ou groupes d'atomes.17 En Figure 13 est reportée l'équation chimique qui rend compte du principe des calculs réalisés. Ainsi, plus E calculé est grand (c'est-à-dire plus l'espèce benzoate est déstabilisée), plus le substituant X est un électro-donneur puissant. Au contraire, plus E calculé est petit (c'est-à-dire plus l'espèce benzoate est stabilisée), plus le substituant X est un électro-attracteur puissant qui stabilise la charge négative. Pour l'optimisation de chaque structure (acide benzoïque et benzoate) avec différents substituants X, nous avons utilisé une base triple- (6-311G**) sur tous les atomes et la fonctionnelle B3LYP. Pour minimiser les effets stériques, les substituants ont été placés en position para par rapport à la fonction acide, excepté le substituant NO2 qui possède un fort effet méta (néanmoins, un calcul réalisé avec NO2 en position para a fourni une valeur E identique à celle calculée avec le substituant en position méta). O OH O O ∆E X + H+ X Figure 13 : Équation permettant de décrire la méthode, fondée sur celle de Hammet, utilisée pour classer les substituants X selon l'intensité de leurs s électroniques attracteurs ou donneurs. Les résultats de cette classification sont présentés en Tableau 6. L'atome d'hydrogène (X = H) est pris comme référence soit Erelatif(H) = 0. Dans ce tableau, CN apparaît comme le substituant le plus électro-attracteur et NHMe comme le substituant le plus électro-donneur. 157 Chapitre VI : Vers une prédiction du degré de polymérisation Électro-attracteur X ̈E CN 28,85 NO2 29,23 COOH 30,06 CHO 31,82 CF3 32,18 BH2 33,31 Br 34,71 I 34,80 Cl Électro-donneur ̈E relatif X ̈E ̈E relatif -11,67 NHMe 47,65 7,13 -11,29 NH2 47,30 6,78 -10,46 NMe2 47,00 6,48 -8,7 OMe 42,62 2,1 -8,34 Me 41,63 1,11 -7,21 -CH2-CH3 41,23 0,71 -5,81 -CH2-CH2-CH3 41,18 0,66 -5,72 -CH(Me)2 41,05 35,06 -5,46 -C(Me)3 40,99 0,53 0,47 BHMe 35,27 -5,25 PH2 36,54 -3,98 -CH=NH 36,66 -3,86 SiH3 36,73 -3,79 BMe2 36,80 -3,72 PHMe 37,09 -3,43 -CH=NMe 37,28 -3,24 PMe2 37,39 -3,13 F 37,56 -2,96 Ph 38,14 -2,38 -CH=CH2 38,54 -1,98 SiMe3 39,00 -1,52 SMe 39,59 -0,93 Tableau 6 : Classement des substituants du plus fort au plus faible selon leur force acceptrice ou donatrice d'électrons évaluée par rapport au substituant X = H de référence (E = 40,52 kcal/mol). VI.4.3.2. Variation du substituant en position para des aryles (électro-donneur sur les imino-carbones) Pour se focaliser tout d'abord sur l'étude des effets électroniques, et donc minimiser au maximum l'influence des effets stériques, les substituants ont été placés en position para sur les cycles aryles insi qu'il est possible de le visualiser en Figure 14. 158 Chapitre VI : Vers une prédiction du degré de polymérisation N N N Fe X X Figure 14 : Exemple d'une structure type utilisée pour l'étude des effets électroniques de différents substituants X placés en position para sur les cycles aryles ; un substituant électro-donneur (Me), présent sur les iminocarbones, reste constant. Pour chaque substituant étudié, la structure de l'adduit et des états de transition pour l'insertion (C2 à C4) et le BHT correspondant ont été calculées. Chaque structure a été optimisée selon la méthode de calculs générale détaillée au chapitre III. En Tableau 7 sont reportées les valeurs d'enthalpies libres d'activation (insertion et BHT) et la valeur du coefficient Į correspondant, extraite de la relation (6.7), pour chaque substituant X considéré. L'ordre des substituants suit celui issu des résultats de la "méthode de Hammet". Ils sont ici classés du plus électro-donneur (NHMe) au plus électro-attracteur (CN). La Figure 15 montre que le coefficient Schulz-Flory augmente avec la diminution de la force électro-donatrice du substituant. Il apparaît que l'atténuation de la force électro-donatrice du substituant fait davantage varier Į que l'augmentation de la force électro-attractrice (la pente est plus forte à droite qu'à gauche de la courbe). La diminution de la densité électronique sur le ligand bis(arylimino)pyridine semble donc favoriser la vitesse de propagation de chaînes au détriment de la vitesse de terminaison. En Tableau 7, on relève l'abaissement des barrières enthalpiques d'activation pour l'insertion (de 21,19 à 15,43 kcal/mol) qui suit l'augmentation de la force électro-attractrice des substituants, tandis que les hauteurs des barrières d'activation pour les réactions de BHT restent relativement constantes (de 23,20 à 20,11 kcal/mol). 159 Chapitre VI : Vers une prédiction du degré de polymérisation Me sur les imino-carbones Sub stituants électro-donneurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į NHMe 21,19 22,41 1,22 0,14 NH2 20,01 21,66 1,65 0,17 NMe2 19,87 23,20 3,33 0,29 OMe 16,79 21,46 4,67 0,39 Me 17,45 21,62 4,16 0,35 Substituants électro-attracteurs ‡ ‡ ‡ ∆Gins ∆GBHT δ∆GC2 →C4 X Į Br 17,83 22,01 4,18 0,35 BH2 15,54 20,81 5,27 0,43 CF3 15,69 20,11 4,42 0,37 CHO 15,43 20,97 5,53 0,45 NO2 17,50 22,38 4,88 0,40 CN 17,10 22,00 4,90 0,40 ‡ ‡ Tableau 7 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ∆Gins ) et de BHT ∆GBHT ), et valeur du coefficient Schulz-Flory théorique (), extraite de la relation (6.7), pour différents substituants X classés du plus électro-donneur au plus électro-attracteur. 0,5 CHO BH2 CN 0,4 OMe NO2 CF3 Br Me 0,3 NMe2 0,2 NH2 NHMe 0,1 -12 -9 -6 -3 0 3 6 E relatif (kcal/mol) Figure 15 : Évolution du coefficient, extrait de la relation (6.7), en fonction des substituants X classés selon leur valeur E relative issue de la méthode de calculs de Hammet (Tableau 6) ; noter que les connections entre les différents points n'ont pas de sens physique mais servent à montrer une tendance. 160 Chapitre VI : Vers une prédiction du degré de polymérisation VI.4.3.3. Variation du substituant en position para des aryles (électro-attracteur sur les imino-carbones) On s'intéresse dans cette section à l'impact du même changement de substituants mais en présence maintenant d'un substituant électro-attracteur constant (CF3) sur les imin o-carbones. En Figure 16 est représentée une structure type utilisée pour ces calculs. CF 3 CF3 N N N Fe X Figure 16 : Exemple d'une structure type utilisée pour l'étude des effets électroniques de différents substituants X placés en position para sur les cycles aryles ; un substituant électro-attracteur (CF3), présent sur les iminocarbones, reste constant. En Tableau 8 sont reportées les valeurs d'enthalpies libres d'activation (insertion et BHT) et la valeur du coefficient Į obtenues pour différents substituants X. CF3 sur les imin o -carbones Substituants électro-donneurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į NHMe 20,13 22,66 2,52 0,24 NH2 19,50 22,65 3,15 0,28 NMe2 17,65 21,46 3,81 0,33 OMe 18,03 22,86 4,82 0,40 Me 13,89 16,95 3,06 0,27 Substituants électro-attracteurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į Br 19,58 24,64 5,06 0,41 CF3 13,33 18,83 5,49 0,45 CHO 12,02 20,26 8,24 0,64 NO2 11,37 18,81 7,44 0,58 CN 15,37 22,39 7,02 0,55 ‡ Tableau 8 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ∆Gins ) et de BHT ( ∆GBHT ), et valeur du coefficient Schulz-Flory théorique (Į), extraite de la relation (6.7), pour différents substituants X classés du plus électro-donneur au plus électro-attracteur. 161 Chapitre VI : Vers une prédiction du degré de polymérisation En Figure 17, le coefficient Schulz-Flory semble suivre la tendance précédente car il augmente d'une manière générale avec la force électro-attractrice du substituant. Cependant, l'effet électro-attracteur de CF3 sur les imino-carbones semble atténuer l'effet sur des substituants électro-donneurs présents sur les cycles aryles puisqu'on observe une augmentation plus faible du coefficient Schulz-Flory avec l'atténuation de la force électrodonatrice que celle observée en Figure 15. D'une manière générale, le groupement électroattracteur (CF3) présent sur les imino-carbones déplace le coefficient vers des valeurs plus hautes que celles obtenues avec le groupement électro-donneur (Me) : par exemple, si X = CHO, = 0,45 avec le groupement Me (Tableau 7) et = 0,64 avec le groupement CF3 (Tableau 8). Ce constat est illustré par les barrières d'activation pour les réactions d'insertion qui chutent plus fortement que précédemment : de 20,13 à 11,37 kcal/mol (versus 21,19 à 15,43 kcal/mol). Ces résultats confirment donc qu'une diminution accrue de la densité électronique sur le ligand (substituant électro-attracteur sur les cycles aryles + substituant électro-attracteur sur les imino-carbones) déplace d'autant plus le coefficient Schulz-Flory vers des valeurs hautes. Il est aussi possible de noter qu'un effet électro-donneur inductif sans effet mésomère (substituant Me) a peu d'impact déstabilisant sur le système π du ligand (∆G‡ins = 13,89 kcal/mol) et semble même amplifier le caractère électro-attracteur du groupement CF3 sur les imino-carbones (la valeur ∆G‡BHT = 16,95 kcal/mol est particulièrement faible). 0,7 CHO 0,6 NO2 0,5 CN CF OMe 0,4 Br NMe2 0,3 NH2 Me NHMe 0,2 0,1 -12 -9 -6 -3 0 3 6 E relatif (kcal/mol) Figure 17 : Évolution du coefficient, extrait de la relation (6.7), en fonction des substituants X classés selon leur valeur E relative issue de la méthode de calculs de Hammet (Tableau 6); noter que les connections entre les différents points n'ont pas de sens physique mais servent à montrer une tendance. 162 Chapitre VI : Vers une prédiction du degré de polymérisation VI.4.3.4. Variation du substituant sur les imino-carbones (électro-donneur en para sur les aryles) Nous souhaitons à présent évaluer l'impact d'un changement de substituant sur les fonctions imines en présence d'un substituant invariant sur les cycles aryles.‡ Un groupement Me électro-donneur est placé sur la position para de chaque cycle aryle et reste constant (Figure 18). En Tableau 9 sont reportés les résultats des calculs (valeurs ∆G‡ et Į théoriques). X X N N N Fe Figure 18 : Exemple d'une structure type utilisée pour l'étude des effets électroniques de différents substituants X placés sur les imino-carbones ; un substituant électro-donneur (Me), présent sur la position para des cycles aryles, reste constant. Me en para des cycles aryle Substituants électro-donneurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į NHMe 21,96 24,82 2,46 0,26 NMe2 20,64 29,06 8,42 0,65 OMe 19,65 23,77 4,12 0,35 Me 17,45 21,62 4,16 0,35 Substituants électro-attracteurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į CF3 13,89 16,95 3,06 0,27 CHO 18,36 21,75 3,39 0,30 NO2 17,63 25,67 8,04 0,63 CN 17,79 25,43 7,64 0,60 ‡ ‡ Tableau 9 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ∆Gins ) et de BHT ( ∆GBHT ), et valeur du coefficient Schulz-Flory théorique (Į), extraite de la relation (6.7), pour différents substituants X classés du plus électro-donneur au plus électro-attracteur. ‡ Un tel changement de substituant sur les fonctions imines ne répond plus précisément au changement effect u é ju squ'ici sur les cycles aryles est celui du "modèle de Hammet". Cependant, nous faisons l'hypothèse que ce modèle de référence reste valide et que les magnitudes des effets d'un substituant variant sur les cycles aryles ou les fonctions imines sont proches. 163 Chapitre VI : Vers une prédiction du degré de polymérisation En Figure 19, on constate que le coefficient Schulz-Flory suit une légère tendance qui semble fournir, comme précédemment, les valeurs les plus élevées avec les substituants les plus électro-attracteurs (CN et NO2). 0,7 NMe2 NO2 0,6 CN 0,5 0,4 Me CHO 0,3 OMe CF3 NHMe 0,2 0,1 -12 -9 -6 -3 0 3 6 E relatif (kcal/mol) Figure 19 : Évolution du coefficient, extrait de la relation (6.7), en fonction des substituants X classés selon leur valeur E relative issue de la méthode de calculs de Hammet (Tableau 6) ; noter que les connections entre les différents points n'ont pas de sens physique mais servent à montrer une éventuelle tendance. Néanmoins, une exception notable peut être relevée pour le substituant encombrant NMe2 qui est donneur d'électrons mais génère pourtant la valeur la plus importante de la série (0,65). Si l'on analyse la structure optimisée relative à l'état de transition BHT, qui conduit à une barrière d'activation de terminaison particulièrement haute (∆G‡BHT = 29,06 kcal/mol), on constate qu'elle possède une géométrie répulsive dans laquelle plusieurs distances H-H sont proches de 2,2 Å (Figure 20). Notamment, les deux plus courtes distances H-H découlent directement de la présence du substituant NMe2 sur les imino-carbones (2,239 et 2,231 Å). 164 Chapitre VI : Vers une prédiction du degré de polymérisation 2.239 2.231 2.286 2.243 2.244 Figure 20 : Structure optimisée de l'état de transition pour le BHT dans le cas du catalyseur avec un substituant NMe2 sur les imino-carbones (les distances interatomiques sont notées en Å). Ce constat indique donc que la variation des substituants réalisée maintenant sur les iminocarbones peut induire des effets stériques qui peuvent devenir non négligeables contrairement à ceux induits lors de variations de substituants sur la position para des cycles aryles. Ces effets stériques semblent même en mesure de "prendre le pas" sur les effets purement électroniques et de déplacer le coefficient Schulz-Flory vers des valeurs hautes et inattendues. Plus précisément, il est possible de remarquer que les effets électroniques semblent encore ‡ influencer les réactions d'insertion ( ∆Gins diminue toujours avec l'augmentation de la force électro-attractrice), mais l'évolution anarchique des hauteurs des barrières d'activation BHT montre clairement que les effets stériques sont importants lors des réactions de terminaison et qu'ils tendent à déplacer les coefficients Schulz-Flory vers des valeurs plus élevées. VI.4.3.5. Variation du substituant sur les imino-carbones (électro-attracteur en para sur les aryles) En Tableau 10 sont reportés les résultats de l'étude de l'impact sur le coefficient Į des variations de substituant sur les imino-carbones en présence d'un groupement électroattracteur (CF3) qui reste inchangé en position para des cycles aryles (Figure 21). 165 Chapitre VI : Vers une prédiction du degré de polymérisation X N N N Fe CF3 CF3 Figure 21 : Exemple d'une structure type utilisée pour l'étude des effets électroniques de différents substituants X placés sur les imino-carbones ; un substituant électro-attracteur (CF3), présent sur la position para des cycles aryles, reste constant. En Tableau 9 et Tableau 10, on relève que les valeurs du coefficient Schulz-Flory suivent une tendance identique. Cette similitude est davantage visible par la comparaison de l'allure des courbes en Figure 19 et Figure 22. D'une manière générale, chaque coefficient Schulz-Flory est déplacé vers une valeur plus haute si le substituant invariant sur les cycles aryles passe d'un effet électro-donneur (Figure 19) à un effet électro-attracteur (Figure 22). Cette "reproductibilité" apparente des résultats issus de l'application de notre méthode prédictive du coefficient Į, confirme, d'une part l'intervention maintenant non négligeable des effets stériques avec les changements de substituants sur les fonctions imines, d'autre part l'impact sur le coefficient Schulz-Flory d'une accentuation de l'effet électro-attracteur qui tend alors à l'augmenter. Par ailleurs, la reproductibilité et la cohérence des calculs observées jusqu'ici de manière générale indique encore la bonne pertinence du descripteur utilisé qui se révèle assez fin pour étudier des variations électroniques et stériques dans un catalyseur. 166 Chapitre VI : Vers une prédiction du degré de polymérisation CF3 en para des cycles aryle Substituants électro-donneurs ‡ ‡ ‡ ∆Gins ∆GBHT δ∆GC2 →C4 X Į NHMe 22,29 24,61 2,32 0,22 NMe2 19,15 28,51 9,36 0,72 OMe 20,79 26,11 5,31 0,43 Me 15,69 20,11 4,42 0,37 Substituants électro-attracteurs ‡ ‡ ‡ ∆Gins ∆GBHT δ∆GC2 →C4 X Į CF3 13,33 18,83 5,49 0,45 CHO 18,33 22,97 4,65 0,39 NO2 14,57 25,82 11,25 0,85 CN 16,46 23,68 7,22 0,57 ‡ Tableau 10 : Enthal pies libres d ' activation en kcal/mol pour les réactions d'insertion ( ∆ Gins ) et de BHT ‡ ), et valeur du coefficient Schulz-Flory théorique (), extraite de la relation (6.7), pour différents ( ∆ GBHT substituants X classés du plus électro-donneur au plus électro-attracteur . 0,9 NO2 0,8 NMe2 0,7 0,6 CN 0,5 CF3 0,4 OMe CHO Me 0,3 0,2 NHMe 0,1 -12 -9 -6 -3 0 3 6 E relatif (kcal/mol) Figure 22 : Évolution du coefficient, extrait de la relation (6.7), en fonction des substituants X classés selon leur valeur E relative issue de la méthode de calculs de Hammet (Tableau 6) ; noter que les connections entre les différents points n'ont pas de sens physique mais servent à montrer une éventuelle tendance. Enfin, il est important de noter qu'un changement de substituant sur les imino-carbones semble avoir un impact plus fort sur le coefficient Schulz-Flory (et donc sur les cinétiques de réactions) qu'un changement de substituant sur la position para des cycles aryles : par 167 Chapitre VI : Vers une prédiction du degré de polymérisation exemple en Tableau 10, le coefficient varie de 0,22 à 0,85, tandis qu'en Tableau 8 il varie de 0,27 à 0,64. En définitive, l'utilisation des valeurs théoriques du coefficient Schulz-Flory, extraites de la relation (6.7), nous permet bien d'étudier le rôle des effets électroniques dans les catalyseurs bis(arylimino)pyridine au fer. La Figure 23 trace le bilan de cette étude. On relève ainsi : 9 que l'introduction d'un substituant électro-attracteur, sans effet stérique, entraîne l'élévation du coefficient Schulz-Flory, 9 qu'un substituant électro-donneur encombrant présent sur les imino-carbones peut induire un coefficient Schulz-Flory élevé (cas du substituant NMe2). 0,9 NO2 0,8 NMe2 0,7 CHO 0,6 0,5 CF3 OMe 0,4 CN 0,3 Me 0,2 NHMe 0,1 -12 -10 -8 -6 -4 -2 0 2 4 6 8 E relatif (kcal/mol) Figure 23 : Évolution du coefficient, extrait de la relation (6.7), en fonction des substituants X classés selon leur valeur E relative issue de la méthode de calculs de Hammet (Tableau 6) ; un groupement Me (en rouge) ou CF3 (en bleu clair) est constant sur les iminocarbones et X varie en position para des cycles aryles ; un groupement Me (en vert) ou CF3 (en bleu foncé) est constant en position para des cycles aryles et X varie sur les iminocarbones ; noter que les connections entre les différents points n'ont pas de sens physique mais servent à montrer une éventuelle tendance. Donc, si l'allure reproductible des courbes donne une information sur la pertinence du ‡ descripteur δ∆GC2 →C4 utilisé, elle confirme aussi qu'une analyse des seuls effets électroniques, dans ces systèmes où la proximité des différentes fonctions (aryle, imine, pyridine) peut 168 Chapitre VI : Vers une prédiction du degré de polymérisation générer d'importants effets stériques, reste limitée aux cas de substituants peu encombrants ou variant sur des positions bien isolées du ligand (par exemple en position para des cycles aryles). Dans les deux prochaines sections de ce chapitre, nous essayons donc de mieux comprendre et de mieux décrire ces effets stériques, leur intensité selon le type de substituants en présence et leur incidence sur le coefficient Schulz-Flory. VI.4.3.6. Effets stériques liés à l'occupation d'une position ortho des aryles Par le biais de l'occupation d'une position ortho des cycles aryles par un groupement Me, qui doit induire des effets stériques liés aux interactions entre ce groupement et le substituant présent sur les fonctions imines, nous espérons aboutir à une meilleure connaissance et rationalisation des influences stériques dans ce type de catalyseur. La structure type pour l'étude de ces effets est représentée en Figure 24. N N N Fe Figure 24 : Exemple d'une structure type utilisée pour étudier l'influence des effets stériques dans les catalyseurs bis(arylimino)pyridine au fer ; le substituant X varie tandis qu'un substituant électro-donneur (Me), présent sur une position ortho des cycles aryles, reste constant. En Tableau 11 sont présentés les résultats ( ∆ G ‡ et théoriques) obtenus avec différents substituants X électro-donneurs class és du plus électro-donneur au moins électro-donneur selon la classification issue de « la méthode de Hamm » (VI.4.3.1). 169 Chapitre VI : Vers une prédiction du degré de polymérisation Substituants électro-donneurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 Į NHMe 25,15 28,87 3,72 0,32 NH2 18,68 27,31 8,63 0,67 NMe2 17,85 29,83 11,98 0,90 OMe 16,52 30,26 13,74 0,93 Me 15,54 26,36 10,83 0,82 -CH2-CH3 16,98 23,92 6,95 0,55 -CH2-CH2-CH3 16,26 24,11 7,85 0,61 CHMe2 16,06 23,42 7,36 0,58 CMe3 16,43 24,16 7,73 0,60 SMe 19,56 27,62 8,06 0,63 -CH=CH2 15,95 24,79 8,84 0,68 Ph 15,69 25,82 10,12 0,77 ‡ Tableau 11 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ∆Gins ) et de BHT ‡ ), et valeur du coefficient Schulz-Flory théorique (Į), extraite de la relation (6.7), pour différents ( ∆GBHT substituants X classés du plus électro-donneur au moins électro-donneur. L'évolution des valeurs du coefficient Į suit la tendance générale observée jusqu'ici, c'est-àdire une augmentation sensible avec la diminution de la force électro-donatrice des substituants. Néanmoins, il est possible de relever trois cas particuliers pour lesquels le coefficient SchulzFlory sort de cette tendance et présente notamment une valeur particulièrement élevée : pour X = NMe2 (Į = 0,90), OMe (Į = 0,93) ou Me (Į = 0,82). On note que ce dernier cas (X = Me) correspond au catalyseur que nous avons étudié dans les chapitres précédents. Pour les deux premiers cas, l'état de transition pour le BHT correspondant est particulièrement déstabilisé ‡ dans la série (respectivement ∆GBHT = 29,83 et 30,26 kcal/mol). Les structures optimisées respectives (Figure 25) montrent que les hétéro-atomes N ou O attirent les atomes d'hydrogène des groupements Me des cycles aryles (les doubles électroniques n des atomes N ou O sont dirigés vers les atomes d'hydrogène) conduisant à de fortes interactions répulsives entre les cycles aryles, qui ont tourné, et les molécules d'éthylène, l'une partante, l'autre approchante. Une analyse identique peut être faite à partir des structures BHT portant des substituants SMe (Į = 0,63) ou NH2 (Į = 0,67) pour lesquelles les barrières d'activation BHT sont élevées par ‡ = 27,62 et 27,31 kcal/mol). Mais rapport à la tendance de la série (respectivement ∆GB HT 170 Chapitre VI : Vers une prédiction du degré de polymérisation l'impact sur le coefficient Į semble alors atténué par des barrières d'activation pour les ‡ = 19,56 et réactions d'insertion qui sont également relativement hautes (respectivement ∆Gins 18,68 kcal/mol Cela pourrait indiquer que ces deux catalyseurs ont des activités plus faibles que d'autres catalyseurs de la série qui présentent des barrières d'activation plus accessibles pour la réaction d'insertion. 2.117 2.976 2.072 2.161 2.768 2.046 Figure 25 : Structures optimisées des états de transition de BHT pour les catalyseurs avec un substituant NMe2 (en haut) ou OMe (en bas) sur les imino-carbones (les distances interatomiques sont notées en Å). Pour le troisième cas d'exception ( cas du substituant Me), l'analyse est différente. En effet, l'enthalpie libre d'activation pour la réaction de BHT a une valeur qui s'inscrit dans la tendance de la série, alors que la barrière d'activation pour l'insertion est quant à elle ‡ particulièrement basse ( ∆Gins = 15,54 kcal/mol). En Figure 26, les structures géométriques des états de transition pour les réactions d'insertion et de BHT permettent de constater que le TS relatif à l'insertion adopte notamment une structure très peu répulsive dans laquelle la plus petite distance H-H est 2,5 Å. Les interactions H-H sont en quelque sorte "idéalement" minimisées et la géométrie résultante est donc stabilisée. La structure du TS pour la réaction 2. 3.196 2.500 2.531 2.944 3.043 2.229 2.750 3.059 2.124 Figure 26 : Structures optimisées des états de transition d'insertion (en haut) et de BHT (en bas) pour le catalyseur avec le substituant Me sur les imino-carbones (les distances interatomiques sont notées en Å). Par ailleurs, il est intéressant de remarquer que des structures a priori hautement répulsives (par exemple celle en Figure 27 qui possède un substituant encombrant t-Bu sur les iminocarbones) peuvent adopter des organisations spatiales qui minimisent avantageusement les interactions répulsives. En Figure 27, les plus courtes distances H-H entre les groupements t-Bu et les cycles aryles sont 2,485 Å et 2,428 Å. La plus courte distance H-H globale est 2,084 Å que l'on peut comparer à la plus courte distance H-H en Figure 25 (2,046 Å) qui est pourtant présente dans une structure a priori moins répulsive. En définitive, on s'aperçoit que l'analyse de structures moléculaires optimisées permet de comprendre et de rationaliser certaines valeurs calculées du coefficient Schulz-Flory qui ne peuvent pas être interprétées par l'analyse des seuls effets électroniques. Chapitre VI : Vers une prédiction du degré de polymérisation 2.372 2.631 2.668 2.154 2.253 2.232 2.428 2.485 2.084 2.164 2.320 Figure 27 : Structure optimisée de l'état de transition du BHT pour le catalyseur avec un substituant t-Bu sur les imino-carbones (les distances interatomiques sont notées en Å). Le Tableau 12 rassemble les résultats obtenus ( ∆G ‡ et théoriques) avec différents substituants X électro-attracteurs, classés du plus électro-attracteur au moins électro-attracteur selon la classification issue de « la méthode de Hammet » (VI.4.3.1). Substituants électro-attracteurs X ‡ ∆Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 CN 13,20 23,15 9,95 0,76 NO2 12,11 25,86 13,75 0,93 COOH 14,40 22,29 7,89 0,61 CHO 15,63 23,32 7,69 0,60 CF3 13,19 22,47 9,27 0,71 BH2 14,37 24,64 10,27 0,78 BHMe 14,83 23,32 8,49 0,66 PH2 15,94 24,06 8,11 0,63 -CH=NH 14,46 22,71 8,25 0,64 BMe2 16,09 24,98 8,89 0,69 PHMe 18,53 24,13 5,60 0,45 -CH=NMe 15,51 22,88 7,38 0,58 PMe2 17,97 25,36 7,38 0,58 F 14,12 17,77 3,65 0,31 ‡ Tableau 12 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ∆Gins ) et de BHT ‡ ( ∆GBHT ), et valeur du coefficient Schulz-Flory théorique (), extraite de la relation (6.7), pour différents substituants X classés du plus électro-attracteur au moins électro-attracteur. Les résultats en Tableau 12 indiquent que le coefficient Schulz-Flory tend à diminuer avec l'abaissement de la force électro-attractrice du substituant, ce qui est en ligne avec toutes les 173 Chapitre VI : Vers une prédiction du degré de polymérisation tendances observées jusqu'ici. Cela peut être aisément vérifié par la comparaison des valeurs Į théoriques pour deux substituants peu encombrants, CN et F, pour lesquels le coefficient Schulz-Flory passe de 0,76 pour le plus électro-attracteur (CN) à 0,31 pour le moins électroattracteur (F). Cependant, cette diminution ne suit pas systématiquement celle de la force électro-attractrice du substituant et l'influence des effets stériques sur le coefficient Į doit alors être considérée. Par exemple, le substituant NO2 génère un haut coefficient Į (0,93) qui sort de la tendance générale de la série. Dans le cas de ce substituant, on relève une barrière d'activation pour la ‡ réaction d'insertion particulièrement basse ( ∆Gins = 12,11 kcal/mol) -la plus basse de la série‡ et une barrière d'activation pour la réaction de BHT particulièrement haute ( ∆GBHT = 25,86 kcal/mol) -la plus haute de la série. En Figure 28 sont représentées les structures optimisées relatives à ces deux réactions (insertion et BHT). 2.636 3.010 2.384 2.225 2.776 2.141 Figure 28 : Structures optimisées des états de transition des réactions d'insertion (en haut) et de BHT (en bas) pour le catalyseur portant le substituant NO2 sur les imino-carbones (les distances interatomiques sont notées en Å). À partir de l'analyse de ces structures, on constate que le TS relatif à l'insertion possède peu d'intéractions fortement répulsives : par exemple, la plus courte distance H-H est 2,384 Å. En 174 Chapitre VI : Vers une prédiction du degré de polymérisation outre, les cycles aryles semblent avoir une importante liberté de rotation puisque la plus courte distance O-H entre NO2 et le groupement Me reste importante (3,010 Å) et la plus courte distance entre la molécule d'éthylène et les cycles aryles est aussi relativement haute (2,636 Å). Le TS relatif au BHT possède quant à lui des intéractions davantage répulsives puisqu'on relève notamment une distance H-H inférieure à 2,2 Å (2,141 Å). La forte occupation de l'axe z, dans la sphère de coordination de l'atome de fer, par les molécules d'éthylène approchante et partante semble gêner la rotation des cycles aryles. Pourtant, cette rotation est incitée par l'interaction attractive entre les atomes d'oxygène des groupements NO2 et les atomes d'hydrogène des groupements Me (2,776 Å). Ce conflit entre interactions attractives et répulsives peut expliquer en partie la déstabilisation particulière de l'état de transition relatif au BHT. Le même type d'analyse structurale peut être faite sur d'autres molécules optimisées qui ne conduisent pas à des valeurs du coefficient Schulz-Flory s'inscrivant dans la tendance de la série. En définitive, les effets stériques apparaissent jouer un rôle primordial dans les catalyseurs bis(arylimino)pyridine au fer puisqu'ils peuvent, dans la mesure où ils sont importants (substituants volumineux, position substituée peu isolée), déplacer la sélectivité de la réaction et orienter la nature des produits. Cela est bien illustré si l'on consid le substituant NMe2 (fortement donneur d'électrons) placé sur les imino-carbones avec, tout d'abord, un groupement Me en para des cycles aryles (effets stériques minimisés, Į = 0,65 en Tableau 9) puis un groupement Me en ortho des cycles aryles (effets stériques accentués, Į = 0,90 en Tableau 11). VI.4.3.7. Effets d'un atome de brome en position ortho des aryles Dans cette partie de chapitre, nous nous sommes intéressés à l'effet d'un substituant électroattracteur en ortho des cycles aryles, suffisamment volumineux pour générer des effets stériques par interactions avec des substituants voisins. Un atome de brome s'est avéré 175 Chapitre VI : Vers une prédiction du degré de polymérisation intéressant pour étudier l'impact cumulé des effets électroniques et des effets stériques sur le coefficient Schulz-Flory. X X N Br Br N N Fe Figure 29 : Exemple d'une structure type utilisée pour évaluer l'influence des effets stériques induits par un atome Br placé sur une position ortho de chaque cycle aryle dans les catalyseurs bis(arylimino)pyridine au fer. En Tableau 13 sont reportés les résultats obtenus ( ∆G ‡ et théoriques) avec différents substituants X, classés du plus électro-donneur au plus électro-attracteur selon la classification issue de « la méthode de Hammet » (VI.4.3.1). Br placé sur une position ortho des cycles aryles X ‡ Gins ‡ ∆GBHT ‡ δ∆GC2 →C4 NMe2 17,27 30,18 12,91 0,90 NH2 18,45 28,30 9,85 0,75 SMe 16,92 24,75 7,84 0,61 -CH=CH2 15,34 25,65 10,30 0,79 Ph 15,31 28,65 13,35 0,91 PMe2 16,06 24,79 8,73 0,67 PH2 14,95 23,66 8,71 0,67 -CH=NMe 14,30 24,89 10,59 0,81 BMe2 13,22 24,84 11,62 0,88 -CH=NH 13,91 23,66 9,75 0,75 BH2 18,48 26,52 8,04 0,63 CHO 10,93 20,44 9,51 0,73 NO2 17,41 30,31 12,90 0,90 CN 15,60 24,02 8,41 0,65 ‡ Tableau 13 : Enthalpies libres d'activation en kcal/mol pour les réactions d'insertion ( ins ) et de BHT ‡ ( ∆GBHT ), et valeur du coefficient Schulz-Flory théorique (), extraite de la relation (6.7), pour différents substituants X classés du plus électro-donneur au plus électro-attracteur. 176 Chapitre VI : Vers une prédiction du degré de polymérisation Les résultats, en particulier l'évolution des valeurs du coefficient Schulz-Flory, montrent que l'introduction d'un atome de brome sur une position ortho des cycles aryles rompt toute tendance encore observée sur la variation du coefficient Į avec celle des effets électroniques. En effet, la disparité des valeurs Į de Ph (Į = 0,91) à SMe (Į = 0,61) atteste clairement que les effets stériques dominent ici les effets électroniques. Comme nous avons pu le vérifier jusqu'à présent, un substituant très électro-attracteur favorise d'autant des valeurs élevées du coefficient Schulz-Flory. Ceci n'est maintenant plus observé puisque le substituant le plus électro-donneur (NMe2) induit un coefficient Į (0,90) bien supérieur à celui calculé avec le substituant CN qui est le substituant le plus électro-attracteur (Į = 0,65). Néanmoins, il est possible de remarquer que les barrières d'activation pour l'insertion diminuent sensiblement avec l'augmentation de la force électro-attractrice. Cela s'inscrit dans les tendances précédentes et signifie donc qu'une analyse des effets électroniques reste en partie pertinente pour les réactions d'insertion. Cependant, même lors de telles réactions d'insertion, il est possible d'observer de fortes interactions intramoléculaires qui déstabilisent les structures correspondantes. Cela est bien illustré par les substituants borane, BMe2 et BH2. En effet, dans le cas de BMe2, le changement du groupement Me par un atome Br génère une élévation du coefficient Į de 0,69 (Tableau 12) à 0,88 (Tableau 13) qui semble découler d'une diminution de la barrière d'activation pour la réaction d'insertion de 16,09 kcal/mol à 13,22 kcal/mol. Ce résultat est cohérent avec l'effet électro-attr introduit par le brome. Cependant, dans le cas de BH2, les deux barrières d'activation (insertion et BHT) augmentent, en particulier celle de la réaction d'insertion qui est déplacée de 14,37 kcal/mol (Tableau 12) à 18,48 kcal/mol (Tableau 13). En Figure 30, les structures optimisées des états de transition pour la réaction d'insertion (avec BMe2 et BH2) montrent que, dans le cas de BH2, un atome de brome est fortement attiré par un atome de bore (2,364 Å). Cette interaction peut être rapidement interprétée par la présence des doublets électroniques n du brome qui versent dans l'orbitale p vacante du bore. 177 Chapitre VI : Vers une prédiction du degré de polymérisation Cette interaction B-Br ne s'observe pas dans le cas du substituant BMe2 pour lequel les deux groupements Me semblent gêner l'approche de l'atome de brome en bloquant la rotation des cycles aryles. L'axe z de l'atome de fer est alors peu encombré et la molécule d'éthylène peut ‡ s'approcher relativement aisément du centre actif ( ∆Gins = 13,22 kcal/mol). On remarque aussi que la barrière d'activation pour la réaction de BHT est plus haute dans le cas du substituant BH2 que BMe2. 2.214 2.152 2.364 2.905 2.934 4.302 Figure 30 : Structures optimisées des états de transition des réactions d'insertion pour les catalyseurs avec un substituant BH2 (en haut) ou BMe2 (en bas) sur les imino-carbones (les distances interatomiques sont notées en Å). D'une manière générale, pour les réactions de BHT (qui impliquent un encombrement particulièrement important suivant l'axe z de l'atome de fer), les effets stériques interviennent davantage et semblent orienter la stabilité des états de transition. Par exemple, en Tableau 13, le substituant le plus électro-donneur (NMe2) conduit à une structure d'état de transition du BHT fortement déstabilisée (G‡BHT = 30,18 kcal/mol). Cette structure est présentée en Figure 178 Chapitre VI : Vers une prédiction du degré de polymérisation 31. Les substituants encombrants NMe2 génèrent des interactions H-H répulsives, notamment avec certains atomes d'hydrogène de la pyridine (2,162 Å) et perturbent la rotation des cycles aryles (2,161 Å). Par ailleurs, la répulsion entre les électrons n des atomes d'azote et de brome doit accentuer l'instabilité de cette structure. Il est intéressant de remarquer qu'en Figure 30 les deux groupements Me sur chaque atome de bore sont positionnés perpendiculairement par rapport au plan N-N-N (N imines et N pyridine), tandis qu'en Figure 31 le doublet d'électrons n de chaque atome d'azote NMe2 empêche maintenant les deux groupements Me à adopter une telle configuration. En effet, la délocalisation du système ʌ du ligand bis(arylimino)pyridine incite ces doublets d'électrons n de NMe2 à y participer : ceux-ci ont alors tendance à s'orienter perpendiculairement par rapport au plan N-N-N. Ce conflit entre participation électronique et minimisation de la gêne stérique déstabilise visiblement la structure. 2.284 2.292 2.234 2.162 2.285 2.268 2.161 Figure 31 : Structure optimisée de l'état de transition du BHT pour le catalyseur avec un substituant NMe2 sur les o-carbones (les distances interatomiques sont notées en Å). En outre, cette participation des doublets d'électrons n au système-ʌ du ligand est encore bien illustrée en Figure 32 pour une structure dans laquelle les substituants NH2 adoptent une configuration totalement plane, c'est-à-dire parallèle au plan N-N-N. On relève par ailleurs qu'une telle configuration génère des répulsions H-H relativement intenses entre NH2 et la pyridine (TS insertion : 2,116 et 2,115 Å ; TS BHT : 2,150 et 2,149 Å) qui déstabilisent ces ‡ ‡ deux structures ( ∆Gins = 18,45 kcal/mol et ∆GBHT = 28,30 kcal/mol). 179 Chapitre VI : Vers une prédiction du degré de polymérisation 2.115 2.116 2.149 2.150 2.229 2.287 Figure 32 : Structures optimisées des états de transition des réactions d'insertion (en haut) et de BHT (en bas) pour le catalyseur avec un substituant NH2 sur les imino-carbones (les distances interatomiques sont notées en Å). VI.4.4.
51,190
43/tel.archives-ouvertes.fr-tel-01067993-document.txt_5
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,144
14,095
7.1 Calculs de potentiels de force moyenne (PMF) Figure 7.1.3.: PMF méthane-néopentane calculé par MDFT en rouge, avec bridge de sphères dures (tirets) et avec la correction hydrophobe à longue distance (pointillés) et par MD[100] en noir. Torsion du butane : Nous avons calculé le potentiel de force moyenne dû à la torsion d'une molécule de butane selon son angle dièdre. Cette molécule est représentée par un modèle à quatre sites. Les paramètres Lennard-Jones utilisés sont les mêmes que dans une étude de MD calculant ce PMF[101]. Ce sont les paramètres OPLS présentés dans le tab. 3.3. Les longueurs de liaisons ainsi que les angles entre sites Lennard-Jones sont fixés à leurs valeurs idéales 1.54 Å et 111°. Les résultats obten us par minimisation fonctionn elle avec la correction bridge de sphères dures et par MD [101] sont présent és en fig. 7.1.4. L'accord entre les deux méthodes est une fois de plus très bon. Le calcul de PMF en utilisant la théorie MDFT est possible pour des molécules neutres. Nous avons pu reproduire très rapidement des PMF intermoléculaires pour des solutés sphériques et un PMF intramoléculaire. La rapidité de la méthode permet de réaliser des études systématiques qui sont hors de portée des techniques de simulations moléculaires. Ces résultats sont encourageants, et ouvrent la voie à l'utilisation de la MDFT pour calculer des PMF pour des solutés plus complexes, notamment des solutés chargés. Dans les prochaines parties nous présentons l'étude de solutés complexes par MDFT. 105 7.1 Calculs de potentiels de force moyenne (PMF) Figure 7.1.4.: PMF selon la torsion de l'angle dièdre du butane, calculé par MDFT avec bridge sph ères dures en tirets rouges et par MD[101] en traits noirs continus. 7.2 Étude de la solvatation d'une argile 7.2. Étude de la solvatation d'une argile Les phénomènes aux interfaces jouent un rôle important dans de nombreuses applications, notamment en catalyse hétérogène et dans les propriétés d'absorption des matériaux poreux. Ces phénomènes peuvent être étudiés expérimentalement, par spectroscopie ou diffraction[102, 103]. Ces expériences donnent des renseignements sur les quelques couches moléculaires de liquide adsorbées à la surface d'un matériaux. L'utilisation de méthodes numériques peut permettre de clarifier ou de rationaliser des observations expérimentales en donnant une explication moléculaire à ces phénomènes. Les méthodes théoriques couramment utilisées reposent généralement sur des simulations moléculaires (MD ou MC)[104]. L'étude de l'adsorption dans les matériaux poreux est un problème multi-échelle puisqu'on s'intéresse à l'adsorption de molécules nanométriques dans des pores de taille mésoscopique. Il est nécessaire de réaliser des simulations comportant des milliers ou des millions d'atomes pour étudier ces systèmes, ce qui requiert l'utilisation de supercalculateurs. Il est donc difficile de réaliser des études systématiques de ces systèmes ou de systèmes de plus grande taille étant donné les ressources computationelles nécessaires. L'utilisation de méthodes implicites est une alternative pour éviter ce coût numérique et énergétique. La théorie MDFT a le double avantage d'être bien plus rapide et moins coûteuse numériquement que les simulations moléculaires, tout en conservant une description moléculaire du solvant. On se propose d'utiliser la MDFT dans l'approximation du fluide homogène de référence pour étudier la solvatation d'une argile, la pyrophyllite. Les argiles sont des matériaux d'intérêt pour divers applications. Par exemple, l'Andra envisage de stocker sur des longues durées des déchets nucléaires dans les couches géologiques profondes constituées d'argile du site de Bure. En effet, les argiles sont imperméables, ce qui empêcherait la diffusion des radionucléotides dans les couches inférieures si les matériaux d'enrobage des déchets radioactifs venaient à se fissurer. Les argiles sont des matériaux multi-échelle constitués d'un empilement de feuillets atomiques séparés par des pores nanométriques. L'étude de ces pores de petite taille est tout à fait possible par MD. Les matrices d'argile sont également constituées de pores à l'échelle mésoscopique dont l'étude n'est pas réalisable par MD. On peut néanmoins les étudier par des simulations n'ayant pas une description moléculaire, comme la méthode de Lattice-Boltzmann. Pour avoir une description complète du matériau, il faudrait pouvoir étudier la solvatation dans ces pores d'échelles différentes, tout en conservant une description moléculaire. 7.2 Étude de la solvatation d'une argile Figure 7.2.1.: Vues latérale et zénithale des feuillets de pyrophyllite. Les atomes de silicium sont en jaune, les atomes d'aluminium en rose, les oxygènes en rouge et les hydrogènes en blanc. Atome O Si O H Al H O Si O z (Å) 39.03 39.62 41.21 4 1.30 0.00 1.00 1.09 2.68 3.27 Table 7.1.: Coordonnées des couches atomiques de l'argile pyrophyllite selon l'axe Oz perpendiculaire au plan de l'argile. 7.2.1. Solvatation par le fluide de Stockmayer On utilise comme solvant le fluide de Stockmayer constitué d'une sphère Lennard-Jones centrale et de deux sites portant une charge de ±1.91 e situés à une distance de 0.1 Å de part et d'autre de ce site, résultant en un dipôle de 1.85 D. Les paramètres de Lennard-Jones donnés en tab. 7.2 et le dipôle ont été ajustés pour que le fluide mime certaines propriétés de l'eau (rayon moléculaire, dipôle, constante diélectrique). Cependant, ce solvant ne permet pas de reproduire toutes les propriétés de l'eau, comme la polarisation au-delà de l'ordre dipolaire, la création de liaisons hydrogènes intermoléculaires et par conséquent la structure locale tétraédrique de l'eau. 7.2.1.1. Description du système La pyrophyllite est une argile neutre qui cristallise dans le groupe monoclinique 2/m. Elle est clivée selon le plan {011}. Elle est constituée d'un empilement de neufs couches atomiques. La couche supérieure est constituée d'atomes d'oxygène (O) qui se trouvent juste au-dessus d'une couche d'atomes de silicium (Si). Ces deux couches forment une structure hexagonale en nids d'abeilles. La couche centrale est composée d'atomes d'aluminium (Al). Entre cette couche d'aluminium centrale et les deux couches Si-O se trouvent deux couches constituées de groupements hydroxyles, dont l'oxygène se trouve au centre des hexagones formés par les deux couches supérieures. Les vues latérale et zénithale des feuillets d'argiles sont données en fig. 7.2.1. Les coordonnées des couches atomiques selon l'axe Oz perpendiculaire aux feuillets sont données dans le tab. 7.1, la couche d'aluminium centrale a été choisie comme l'origine de cet axe. 7.2 Étude de la solvatation d'une argile Molécule Pyrophyll ite Atome ε (kJ.mol−1 ) σ (Å) q (e) Al 5.56388e-6 4.27120 1.575 Si 7.7005e-6 3.30203 2.100 OG 0.650190 3.16554 -1.050 OH 0.650190 3.16554 -0.950 HG 0.0 0.0 0.425 Stockmayer Central 1.847 3.024 0.0 Site 1 0.0 0.0 1.91 Site 2 0.0 0.0 -1.91 Table 7.2.: Champ de force utilisé pour le soluté pyrophyllite et le fluide de Stockmayer dans les simulations de dynamique moléculaire et les calculs MDFT. Les paramètres de la pyrophyllite sont tirés du champ de force CLAYFF. 7.2.1.2. Aspects numériques Champ de force : À la fois dans les simulations de dynamique moléculaire et dans les calculs MDFT, les atomes de la surface interagissent avec le solvant au travers du champ de force CLAYFF[107], constitué de sites Lennard-Jones et de charges ponctuelles. C'est un champ de force générique pour les systèmes minéraux et leurs interfaces avec les solutions. Les paramètres de champ de force pour l'argile et le solvant sont donnés dans le tab. 7.2. La boîte de simulation 2 contient deux demi-couches d'argile de surface Lx × Ly = 41.44 × 35.88 Å. La distance entre deux surfaces est de Lz = 45.57 Å. Dynamique moléculaire : Les simulations de dynamique moléculaire ont été réalisées par Virginie Marry au laboratoire Phenix de l'UPMC. Les simulations sont menées dans l'ensemble canonique avec un thermostat de Nosé-Hoover. Après une étape d'équilibration, les simulations ont été menées sur une trajectoire de 5 ns. La densité de solvant locale n(r) est calculée par 3 moyenne temporelle dans des voxels de volume 0.13 Å. Les densités dans la direction perpendiculaire au plan des feuillets sont calculées à partir de la densité moyenne précédente que l'on moyenne dans les plans (x, y) parallèles aux feuillets. Les simulations de dynamique moléculaire ont été réalisées avec le logiciel DLPOLY[108, 109]. MDFT : Comme le solvant est strictement dipolaire, on utilisera la MDFT avec une fonctionnelle d'excès dipolaire, telle qu'elle a été présentée dans la sec. 3.2. La MDFT est environ mille fois plus rapide que la MD. 7.2.1.3. Résultats On compare d'abord les profils de densité et d'orientation obtenus par MDFT aux résultats de MD. On analyse ensuite l'influence des interactions électrostatiques sur ces grandeurs. 7.2 Étude de la solvatation d'une argile Figure 7.2.2.: Profils de la densité planaire selon l'axe perpendiculaire au plan de l'argile. Les résultats calculés par dynamique moléculaire sont les cercles noirs. Ceux calculés par MDFT sont en tirets rouges. Profil de densité : On analyse l'interaction du solvant avec l'interface grâce à la densité planaire normalisée selon l'axe z, définie comme, n(z) = ˆ Lx x=0 ˆ Ly y=0 n(r) dxdy. nb (7.2.1) Les profils de densité obtenus par dynamique moléculaire et par minimisation fonctionnelle sont donnés en fig. 7.2.2. On trouve un bon accord global entre les deux méthodes . En MD, le pic principal observé présente un épaulement alors qu'en MDFT on observe un « prépic » au lieu de cet épaulement. Le premier pic est suivi par un second pic plus faible et par des oscillations à longue distance. L'épaulement ou « prépic » se situe à z=8.3 Å c'est-à-dire à seulement 1.76 Å de la couche de surface, son intensité est de ≈0.7 en MD et de ≈1 en MDFT. Le pic principal, qu'on appelle premier pic, se situe à z=9.5 Å soit à 2.96 Å de la surface. Le second pic se trouve à 12.3 Å, soit à 5.76 Å de la surface. Au centre de la cellule on retrouve une densité égale à celle de l'eau bulk, n = nb. Le solvant se trouve alors dans les mêmes conditions que dans la phase homogène. La seule différence dans les résultats obtenus par les deux méthodes réside donc dans l'intensité du prépic, qui est plus marquée pour la MDFT. Ce prépic est très localisé. Cette observation est confirmée par la fig. 7.2.3 où sont ées les cartes de densité, calculées par MD et par MDFT. Ces cartes présentent les densités dans les plans parallèles au plan de l'argile situés à une distance correspondant aux maxima de densité planaire de la fig. 7.2.2. On obtient des cartes globalement similaires avec les deux méthodes. Pour MDFT, dans le plan du prépic, le pic de densité est légèrement plus large, avec une intensité similaire. Ceci explique la plus grande valeur lorsque l'on fait la moyenne dans le plan. 7.2 Étude de la solvatation d'une argile des hexagones Si-O. On peut souligner la valeur élevée de la densité à cet endroit (n/nb ≈ 30). L'intégrale de ce pic correspond à la présence d'une molécule unique dans cette zone. Sur la fig. 7.2.3 sont également présentées les cartes de densité dans les plans du premier et du second pic. Là encore, les cartes obtenues par les deux méthodes sont très similaires. Le premier pic est localisé essentiellement au-dessus des atomes de silicium alors que l'on observe une déplétion au-dessus des atomes d'oxygène. Le second pic est globalement localisé au centre des hexagones. On a désormais une idée claire de la structure tridimensionnelle du solvant à la surface de la pyrophyllite. Quelques molécules de solvant sont adsorbées très près de la surface, au centre des hexagones. Au-dessus de ces molécules se trouve une couche très structurée de molécules de solvant localisées au-dessus des atomes de Si. Enfin, une troisième couche de molécules se trouve au centre des hexagones avec une structure moins bien définie. La distance relativement courte entre les couches est signe d'une interaction et donc d'une cohésion importante entre ces couches. Cette conclusion est en accord avec Rotenberg et collaborateurs qui ont montré récemment que la compétition entre adhésion et cohésion détermine l'hydrophobicité de ces surfaces[104]. Propriétés orientationnelles : On s'intéresse désormais aux propriétés orientationnelles des molécules solvatées à la surface de la pyrophylitte. Même si cela est fait de manière routinière, on peut souligner que les propriétés orientationnelles sont particulièrement lentes à sonder par des simulations moléculaires, MD ou MC. En effet, chaque élément de volume doit être échantillon pour un grand nombre d'angles. La MDFT donne directement accès à ces propriétés puisque la densité spatialement et angulairement dépendante ρ(r, Ω) et la densité de polarisation P (r) définie dans l'éq. 3.2.8 sont les variables sur lesquelles est conduite la minimisation. On constate, avec les deux méthodes utilisées, que la densité de polarisation est alignée selon l'axe Oz. Sur la fig. 7.2.4 est présentée la projection Pz de la polarisation P selon l'axe Oz en fonction de la cordonnée z (c'est-à-dire moyennée dans le plan (x, y)). Là encore, on trouve un accord quantitatif entre MD et MDFT. Un maxima est trouvé là où se trouve le prépic de densité, un second là où se trouve le premier pic. Figure 7.2.5.: Cartes de la polarisation Pz dans les plans du prépic (gauche), du pic principal (centre) et du second pic (droite), calculées par MD en haut et par MDFT en bas. 7.2 Étude de la solvatation d'une argile Figure 7.2.6.: Profil de l'orientation moléculaire moyenne cos(θμ (z)) selon la normale au plan de l'argile obtenu par MDFT en tirets rouges. Comme sur la fig. 7.2.5, on a rappelé le profil de densité en bleu. Figure 7.2.7.: De gauche à droite, paramètre d'ordre cos(θP (r) dans le plan du prépic, dans le plan médian entre prépic et premier pic, dans le plan du premier pic et celui du second pic. Le second est l'orientation moléculaire moyenne, cos(θμ (r)) = ∥Pz (r)∥. n(r) (7.2.3) Quand cos(θP (r)) est positif (resp. négatif) le dipôle pointe vers l'extérieur (resp. l'intérieur) de la surface. On représente sur la fig. 7.2.6 la valeur moyenne dans le plan (x, y) de l'orientation moléculaire moyenne cos(θμ (z)) = ⟨cos(θμ (r))⟩x,y, obtenue par MDFT. Les molécules de solvant sont fortement orientées dans le plan du prépic, avec une valeur élevée de l'orientation moyenne. Cette orientation préférentielle est moins marquée dans le plan du premier pic de solvatation. Dans le plan du second, le pic de polarisation correspond à un grand nombre de molécules ayant une faible orientation préférentielle selon l'axe Oz. On peut confirmer cette analyse en regardant des cartes d'orientation locale obtenue par MDFT dans le plan des trois pics, définie par l'éq. 7.2.2. Ces cartes sont présentées sur la fig. 7.2.7. On observe que les molécules dans le plan 114 7.2 Étude de la solvatation d'une argile Figure 7.2.8.: À gauche : densités moyennes le long de l'axe perpendiculaire pour des charges correspondant à celles du champ de force CLAYFF (bleu), à moitié éteintes (rouge) et complètement éteintes (noir). À droite, le changement relatif de l'énergie libre de solvatation en fonction du facteur modulant les charges, à 0 les charges sont éteintes. Ce changement relatif reste inférieur à 6%. du prépic sont très orientées, et les dipôles, orientés du site négatif vers le site positif, pointent vers l'extérieur de la surface. L'orientation est plus faible dans le pic principal et les molécules situées au sommet des atomes de silicium sont orientées le dipôle pointant vers l'intérieur de la surface. Dans le plan du second pic, on trouve une orientation préférentielle faible avec un dipôle pointant vers l'extérieur de la surface. On a maintenant une vision claire des propriétés de solvatation de l'argile par le fluide de Stockmayer. Dans le plan du prépic, une molécule de solvant se trouve au centre des hexagones, avec un dipôle figé pointant vers l'extérieur de la surface. 7.2.2. Solvatation par l'eau Nous avons étudié la solvatation de la même argile, la pyrophyllite, avec le solvant eau SPC/E. On utilise donc la fonctionnelle dont la partie d'excès contient un traitement multipolaire de la polarisation décrite dans la sec. 3.3. Pour une grille spatiale avec un maillage comportant 3 64 points par Å, et 30 points pour décrire les orientations, la convergence est atteinte en une quinzaine d'itérations. Le calcul dure environ 25 minutes. C'est environ trois ordres de grandeur plus rapide que la dynamique moléculaire. 7.2.2.1. Résultats Profils de densité : Sur la fig. 7.2.9 est présentée la densité planaire. On observe un accord quantitatif entre MD et MDFT. Ce profil de densité comporte trois pics. Le premier, qui correspond à la première couche de solvatation de l'argile, se trouve à 6.3 Å de la couche centrale de l'argile et comporte un épaulement à 5.7 Å. Il est intéressant de remarquer qu'avec une description de l'eau dipolaire, se limitant aux premiers invariants, on trouve, comme dans le cas du fluide de Stockmayer, que l'on surestime le premier épaulement. Une meilleure description du solvant corrige cet effet. Le second pic, dû à la seconde couche de solvatation, se trouve à 2.9 Å du premier. Il y a une déplétion entre ces deux premiers pics. Enfin, un troisième pic se situe à z = 13.0 Å. Son l'intensité est pratiquement négligeable mais on le distingue néanmoins en raison des deux zones de déplétion qui l'encadrent. À une distance plus grande de la surface, la densité tend vers celle du solvant homogène nb = 0.033 Å −3. Le calcul de la densité locale n(r) ou de la densité moyenne n(z) par MD n'est pas fait de manière exacte. On mesure plutôt n(z) ⋆ ∆z et n(r) ⋆ ∆V, où ⋆ désigne une convolution et ∆z et ∆V sont des dimensions caractéristiques choisies arbitrairement. Ce sont respectivement la distance et le volume dans lesquels est réalisée la moyenne autour du point d'intérêt. Plus ces dimensions caractéristiques sont petites plus le temps nécessaire pour obtenir une bonne statistique augmente. Ce problème n'existe pas en MDFT puisque l'on n'effectue pas d'échantillonnage. Il est aisé de tracer des cartes d'isodensité, comme celles montrées en fig. 7.2.10, car la densité est la variable 116 7.2 Étude de la solvatation d'une argile Figure 7.2.9.: Profil de la densité planaire selon l'axe perpendiculaire aux feuillets, définie à l'éq. 7.2.1. Les résultats calculés par dynamique moléculaire sont les cercles noirs. Ceux calculés par MDFT sont en tirets rouges. naturelle. Cette carte présente deux surfaces d'isodensité (n(r)=2, 4) au dessus d'un hexagone Si-O de la surface. Les zones de plus haute densité se trouvent au centre des hexagones et des atomes de silicium (ces zones sont respectivement responsables de l'épaulement et du premier pic dans le profil de densité de la fig. 7.2.9). Une zone de densité moins forte se trouve au dessus des hexagones, en forme d'anneau (cette zone est responsable du second pic dans le profil de densité). On représente des cartes de densité dans les plans de l'épaulement, du pic principal et du second pic sur la fig. 7.2.11. Dans le plan du prépic, la densité est fortement localisée au centre des hexagones très proche de la surface hydrophobe. À cette distance l'eau est repoussée partout ailleurs que dans cette petite zone, ce qui explique que lorsqu'on moyenne la densité dans le plan, comme sur la fig. 7.2.9, on observe qu'un épaulement. Dans le plan du premier pic de la fig. 7.2.9, c'est-à-dire dans la première couche de solvatation, on trouve une densité très localisée au dessus des atomes de silicium. Pour la seconde couche de solvatation, qui correspond au deuxième pic du profil de densité, on observe une densité importante au sommet des atomes d'oxygène et une déplétion au sommet des atomes de silicium. On constate sur la fig. 7.2 Étude de la solvatation d'une argile Figure 7.2.10.: Surfaces d'isodensité d'eau, avec n(r)=2 (en bleu) et 4 (en noir). On représente la structure en hexagone de la pyrophyllite pour aider à la visualisation, les atomes d'oxygène sont en rouge, les atomes de silicium en blanc. Figure 7.2.11.: Cartes de densité normalisée n(r)/nb de l'eau dans les plans de l'épaulement (gauche), du pic principal (centre) et du second pic (droite). Les résultats calculés par MD sont en haut, ceux calculés par MDFT en bas. 7.2 Étude de la solvatation d'une argile Figure 7.2.12.: Projections de la polarisation selon l'axe z, moyennée dans chaque plan (x, y). Le profil obtenu par MD est en trait noir plein, celui obtenu par MDFT en tirets rouges. On rappelle le profil de la densité nz en pointillés bleu, en unité arbitraire. Propriétés orientationnelles : On s'intéresse maintenant aux propriétés orientationnelles. On présente sur la fig. 7.2.12 la projection Pz de la polarisation sur l'axe perpendiculaire à la surface de l'argile, moyennée dans chaque plan. Les composantes transverses sont trouvées négligeables (Px /Pz et Py /Pz de l'ordre de 10−3 ), la polarisation est donc alignée dans la direction perpendiculaire à la surface. Les extrema dans le profil de polarisation correspondent à des extrema dans le profil de densité. Un premier maximum de polarisation se trouve à la même abscisse que l'épaulement. Celui-ci est beaucoup plus marqué dans les résultats obtenus par MDFT. Le profil obtenu par MDFT est très semblable à celui obtenu pour le fluide de Stockmayer. Un second extremum, négatif, se trouve dans le plan du premier pic de densité. Entre ces deux extrema le signe de Pz change. L'intensité de la polarisation macroscopique est liée d'une part à la densité de molécule et d'autre part à leur orientation préférentielle dans la région de l'espace considérée. Ainsi, dans le plan du prépic, la polarisation est positive, c'est donc les atomes d'oxygène des molécules d'eau qui sont globalement les plus proches de la surface. Dans le plan du pic principal, les molécules d'eau sont essentiellement situées au-dessus des silicium. Leurs hydrogènes sont les plus proches la surface, puisque le pic de polarisation correspondant est négatif. Enfin le second pic de densité est pratiquement non polarisé, il n'y presque pas d'orientation préférentielle dans cette région de l'espace. L'orientation moléculaire locale cos θμ (r), définie à l'éq. 7.2.3 obtenue par MDFT, moyennée dans chaque plan (x, y) est donnée en fig. 7.2.13. Dans le plan de l'épaulement, les molécules d'eau sont particulièrement orientées. L'atome d'oxygène de la molécule d'eau est le plus proche possible de la surface et de la charge positive des atomes de silicium. Au contraire, dans le plan du pic principal, les molécules d'eau sont globalement orientées dans la direction opposée. La faible valeur de cos θμ (z) correspondant à ce pic principal suggère une orientation préférentielle faible. 7.2 Étude de la solvatation d'une argile Figure 7.2.13.: Valeur moyenne de l'orientation moléculaire locale ⟨cos θμ (r)⟩xy obtenue par MDFT en tirets rouges. Pour faciliter la lecture on rappelle le profil de densité en pointillés bleus en unités arbitraires. F Fext Fid Fexc(rad) Fexc(ori°) γsolv 332.4 -12.8 100.4 244.5 0.3 Table 7.3.: Les différentes composantes de l'énergie libre de solvatation par unité de surface de l'argile. (mJ.m−2 ) Propriétés énergétiques : On peut analyser l'influence des différentes composantes énergétiques en regardant la valeur de chacun des termes de la fonctionnelle utilisée. La partie d'excès est décomposée en une partie radiale et une partie de polarisation. L'énergie libre de solvatation par unité de surface de la pyrophyllite γsolv est donnée au tab. 7.3. Elle est de 332.4 mJ.m−2. La valeur positive confirme la nature hydrophobe du matériau. La contribution énergétique principale provient de la partie radiale des interactions solvant-solvant. La partie d'interaction soluté-solvant et la partie de polarisation ont une contribution très limitée à l'énergie totale. Ceci ne signifie pas pour autant que la polarisation et la perturbation créées par le soluté n'ont qu'une influence limitée dans le processus de solvatation. En effet, on peut imaginer la solvatation d'un mur dur dans un gaz parfait. Le potentiel extérieur infini créé par le mur va évidemment entrainer une densité nulle à l'intérieur du mur. Il en résulte un terme extérieur Fext nul pour la densité d'équilibre. Cependant, c'est la minimisation de ce terme extérieur qui impose un profil de densité différent de celui obtenu en l'absence du mur dur. Le rôle de l'électrostatique : L'évolution de l'énergie libre et de ses composantes avec le facteur modulant les charges de la surface de la pyrophyllite est donnée en fig. 7.2.14. L'énergie libre de solvatation totale ne change pas de plus de 3% quand on éteint totalement les charges. De plus, les profils de densité ne sont pas modifiés par ce procédé. Quand on éteint les charges, les énergies libres de solvatation totale, idéale et la partie radiale du terme d'excès sont peu 7.2 Étude de la solvatation d'une argile Figure 7.2.14.: Évolution relative de l'énergie libre par unité de surface et de ses composantes, en fonction du facteur modulant la charge. Ces grandeurs sont normalisées par rapport aux charges non modifiées. Le changement relatif de l'énergie de solvatation est de 3%. modifiées en valeur absolue. La partie extérieure change beaucoup relativement mais sa valeur reste faible. Ceci confirme que l'électrostatique a peu d'importance pour étudier la solvatation d'argiles globalement neutres. Nous avon s montré que la MDFT est adaptée à l'étude d'un matériaux constitué de plus de mille atomes, même dans un solvant complexe comme l'eau. Ceci peut être réalisé à un coût numérique mille fois plus faible que celui de la MD. 7.3 Étude d'une molécule d'intérêt biologique : le lysozyme 7.3. Étude d'une molécule d'intérêt biologique : le lysozyme Les molécules d'eau confinées dans des cavités jouent un rôle important dans la compréhension de la structure, de la stabilité et des fonctions des biomolécules, notamment des protéines[110, 111]. Ces molécules d'eau internes peuvent être observées par cristallographie[112]. Il est difficile de sonder la présence de molécule d'eau dans des cavités internes de protéines par dynamique moléculaire. Elles sont généralement piégées grâce à des processus impliquant de larges fluctuations de la structure des protéines (repliement et dépliement) sur des échelles de temps trop longues (ms) pour être facilement simulées par MD. Des simulations sur des trajectoires de l'ordre de la microseconde permettant de voir des échanges de molécules d'eau entre l'intérieur de la protéine et le solvant bulk ont néanmoins été publiées récemment[113, 114]. Cependant, ces simulations nécessitent l'utilisation de supercalculateurs et restent très coûteuses numériquement à mettre en oeuvre. Hirata et collaborateurs ont montré que l'utilisation de la méthode de solvant implicite 3D-RISM permet de détecter ces molécules piégées dans les protéines. Ces simulations ont un coût numérique beaucoup plus faible puisqu'elles évitent un traitement dynamique de la protéine[32, 115, 33]. Nous avons donc testé la théorie MDFT sur le même exemple que ces auteurs : le lysozyme du blanc d'oeuf de poule. La structure 3D de cette protéine (code 1HEL) a été extraite de la protein data bank[116]. Cette protéine est connue pour avoir trois cavités (notées W1, W2 et W dans lesquelles sont respectivement détectées par cristallographie quatre, une et aucune molécules d'eau. Il existe d'autres structures cristallographiques[117] de la même protéine qui détectent une molécule d'eau dans la cavité W3 mais avec un facteur B très grand, signe d'une précision très faible quant à la position de cette molécule. Toutes les molécules d'eau présentes dans la structure cristallographique ont été retirées pour ne conserver comme soluté que la protéine en elle-même. Le potentiel d'interaction de ce soluté a été généré en utilisant les paramètres de champ de force Amber (parm99)[118] en utilisant le programme GROMACS[119] pour ajouter les atomes d'hydrogène qui ne sont pas visibles en cristallographie et absents dans le fichier PDB. Nous avons utilisé la fonctionnelle multipolaire, sans terme à trois corps, avec le modèle d'eau 3 SPC/E. 8. Conclusions et perspectives 8.1. Conclusions L'objectif de cette thèse est le développement d'une méthode de solvant implicite, la théorie fonctionnelle de la densité moléculaire, MDFT, pour son application à l'étude de la solvatation en milieu aqueux. C'est un problème physico-chimique important, généralement appréhendé théoriquement par des simulations moléculaires de type Monte Carlo ou dynamique moléculaire, couplées à des techniques d'intégration thermodynamique. Si ces méthodes donnent en principe des résultats avec une « précision chimique », leur utilisation pour l'étude de solutés complexes présente un coût numérique important. Ceci limite leur utilisation systématique, les systèmes les plus complexes restant à ce jours hors de portée. L'utilisation de méthodes de solvant implicite, basées sur des théories des liquides, comme la MDFT, permet de réduire considérablement ce coût. La méthode MDFT est exacte théoriquement et conserve un niveau de description moléculaire du solvant. La théorie de la fonctionnelle de la densité classique est basée sur la preuve que le grand potentiel d'un solvant, en présence d'une perturbation créant un champ extérieur, peut s'écrire comme une fonctionnelle unique de la densité de solvant. Cette fonctionnelle étant inconnue, la clé de l'utilisation de cette méthode réside dans la formulation d'une approximation correcte de la fonctionnelle, et plus particulièrement du terme d'excès relatif aux interactions solvant-solvant. Dans cette thèse, nous nous sommes placés dans l'approximation du fluide homogène de référence qui postule que la fonctionnelle d'excès peut s'écrire en fonction de la fonction de corrélation directe du solvant pur. Pendant cette thèse, j'ai développé la théorie de la fonctionnelle de la densité dans l'approximation du fluide de référence étudier la solvatation d'un soluté quelconque dans l'eau. Cette théorie existait déjà pour des solvants plus simples, tels que l'acétonitrile ou le fluide de Stockmayer, mais son extension à l'eau a posé des problèmes particuliers, notamment dus au fait que l'eau (représentée par le modèle à trois sites SPC/E) ne possède pas une distribution de charge strictement dipolaire. Ceci a nécessité la formulation d'une fonctionnelle d'excès dépendant de la densité de particule et de la densité de polarisation. L'écriture de cette fonctionnelle fait intervenir le facteur de structure et les composantes transverse et longitudinale des susceptibilités diélectriques. L'utilisation de cette fonctionnelle permet de calculer la structure du solvant à l'équilibre thermodynamique autour d'un soluté quelconque ainsi que l'énergie libre de solvatation du soluté. Ces fonctions de corrélation peuvent être obtenues expérimentalement ou calculées par des simulations de dynamique moléculaire. On insiste sur le fait qu'il est nécessaire 124 8.1 Conclusions de déterminer ces fonctions de corrélation pour le solvant pur, à une densité donnée. Il suffit donc de connaître un jeu de trois fonctions pour chaque solvant pour pouvoir étudier la solvatation de n'importe quel soluté dans ce solvant. Cette théorie a néanmoins montré ses limites, notamment pour l'étude des solutés chargés. La cause de cette limitation provient des approximations réalisées lors du développement de la théorie. La fonctionnelle développée est incapable de reproduire l'ordre tétraédrique local de l'eau dû aux liaisons hydrogènes. Nous avons donc introduit un terme de correction à trois corps qui renforce l'ordre tétraédrique entre le solvant et les solutés. Une implémentation numériquement efficace de cette correction a aussi été réalisée. En incorporant cette correction, la structure du solvant autour des solutés chargés obtenue est très proche des résultats obtenus par des simulations numériques. Une autre limite de la théorie développée est son incapacité à reproduire correctement le changement de comportement à petite et grande échelle de la structure et de l'énergie de solvatation de solutés hydrophobes. Cet effet peut être corrigé par la séparation de la fonctionnelle en une partie courte et longue échelle, et par l'introduction d'une correction longue échelle de la fonctionnelle. Le développement de cette correction longue portée et son implémentation ont constitué une autre partie importante des travaux effectués au cours de cette thèse. Cette formulation prouve qu'il est possible de traiter des problèmes multi-échelles avec la théorie de la fonctionnelle de la densité dans le cadre de l approximation du fluide homogène de référence. Une autre partie importante de ce travail de thèse a consisté en l'implémentation de cette théorie dans un code de minimisation numérique de la fonctionnelle. Ce code, nommé mdft, utilise une discrétisation de l'espace et des orientations sur une double grille tridimensionnelle. Il est écrit en Fortran moderne. Nous avons appliqué notre théorie sur un certain nombre de systèmes. Les résultats obtenus sur des solutés simples, atomes, ions et petites molécules sont en accord avec des résultats de référence obtenus par MD qui utilisent les mêmes champs de force. Nous avons également étudié des systèmes complexes. 8.2. Perspectives Si les résultats obtenus pendant cette thèse sont encourageants, il reste néanmoins de nombreuses tâches à accomplir avant de faire de la MDFT, et du code correspondant, une méthode standard. Tout d'abord, il est prévu d'utiliser une fonction de corrélation du solvant utilisant l'ensemble des projections sur les invariants rotationnels. Pour cela, une collaboration avec Luc Bellonni du CEA, qui est un expert du calcul de ces projections, a commencé en octobre 2013, sous forme de la thèse de Lu Ding. Ceci permettra d'avoir une bien meilleure description des interactions entre molécules de solvant et permettra peut-être de s'affranchir des différentes corrections : terme à trois corps, bridge de sphères dures et hydrophobicité à longue portée. Un point théoriquement capital, soulevé par Bob Evans, est de vérifier en quel endroit du diagramme de phase de l'eau se trouve le solvant dans notre théorie. Ceci peut se faire en vérifiant un certain nombre de règles thermodynamiques, telle que la règle d'adsorption de Gibbs et les règles de transition de phase. Un bon point de départ serait la construction d'un modèle d'eau spécifique à la MDFT, au lieu de prendre ceux couramment utilisés en MD. On pense, par exemple, partir d'un fluide de sphères dures, auquel serait ajouté une terme de polarisation, un terme à trois corps et une perturbation Lennard-Jones. Il est également prévu d'introduire un terme de polarisabilité électrostatique du solvant. Enfin, l'objectif ultime, qui était à l'origine le but de cette thèse et qui s'est révélé irréalisable pendant ces trois ans faute de temps, est un couplage entre DFT électronique et MDFT. Ceci permettrait d'utiliser la théorie MDFT pour traiter solvant tout en ayant une description quantique du soluté à un coût bien plus faible que les méthodes QM/MM et avec une précision supérieure aux méthodes utilisant un continuum comme PCM. La partie la plus technique résidera dans l'écriture d'un potentiel de couplage entre la partie classique et la partie quantique. 8.2 Perspectives On se propose comme point de départ de réaliser des minimisations successives avec un couplage nul. D'abord d'eDFT pour obtenir une densité électronique, puis de se servir de cette densité électronique comme potentiel extérieur pour trouver la densité de solvant d'équilibre par MDFT. On pourra se servir du champ électrique créé par cette densité de solvant comme potentiel extérieur pour mener une nouvelle minimisation eDFT, et itérer le processus jusqu'à atteindre une convergence des densités moléculaire et électronique calculées par les deux méthodes. Enfin, une perspective primordiale est la mise à disposition à moyen terme du programme mdft à l'ensemble de la communauté. 127 Ci-dessous, l'ensemble des articles publiés ou acceptés sur le sujet de ce manuscrit avant sa rédaction, le premier juin 2014. M. Levesque, V. Marry, B. Rotenberg, G. Jeanmairet, R. Vuilleumier, D. Borgis. (2012) Solvation of complex surfaces via molecular density functional theory. J. Chem. Phys. 137, 224107. G. Jeanmairet, M. Levesque, R. Vuilleumier, D. Borgis. (2013) Molecular Density Functional Theory of Water, J. Phys. Chem. Lett. 4, 619-624. G. Jeanmairet, M. Levesque, D. Borgis. (2013) Molecular Density Functional Theory of Water describing Hydrophobicity at Short and Long Length Scales, J. Chem. Phys. 139, 154101. G. Jeanmairet, V. Marry, M. Levesque, B. Rotenberg, D. Borgis. (2014) Hydration of Clays at the Molecular Scale : The Promising Perspective of Classical Density Functional Theory, Mol. Phys. 112, 1320-1329. V. P. Sergiievskyi, G. Jeanmairet, M. Levesque, D. Borgis. (2014) Fast Computation of Solvation Free Energies with Molecular Density Functional Theory : Thermodynamic-Ensemble Partial Molar Volume Corrections, J. Phys. Chem. Lett. 5, 1935-1942. G. Jeanmairet, N. Levy, M. Levesque, D. Borgis. (2014) Introduction to Classical Density Functional Theory by Computational Experiment, arXiv preprint arXiv :1401.1679. Plusieurs autres articles sont soumis ou en cours de rédaction. Quatrième partie. Appendices 129 A. Notions de fonctionnelle et de dérivation fonctionnelle A.1. Fonctionnelle On appellera fonctionnelle F une fonction prenant comme argument une autre fonction f. La fonctionnelle renvoie un scalaire (on se limitera aux scalaires réels) en fonction de la valeur prise par la fonction f, sur un intervalle I. Par exemple, Fid [ρ(r)] = kB T ̊ R3 & ρ(r) ln & ρ(r) ρb'' − ρ(r) + ρb dr, (A.1.1) où Fid est une fonctionnelle de la densité ρ, elle-même fonction des coordonnées cartésiennes. La valeur de la fonctionnelle est liée à celle de la densité sur l'ensemble de son domaine de définition, ici R3. A.2. Dérivée fonctionnelle Soit la fonction f (x) où x = x1, x2,, xn est un vecteur à n dimensions. La variation de f due à une variation infinitésimale de x s'écrit df = f (x + dx) − f (x) = n % fi′ (x)dxi, (A.2.1) i=1 avec, fi′ (x) = ∂f. ∂xi (A.2.2) De même, si A est une fonctionnelle de f (x), c'est-à-dire qui dépend de la valeur de f sur un intervalle [a; b], la variation de la fonctionnelle s'exprime comme δA = A [f (x) + δf (x)] − A [f (x)] = ˆb A′ [f (x)] δf (x)dx a 130 (A.2.3) A.2 Dé rivée fonctionnelle avec la dérivée fonctionnelle A′ [f (x)] = δA. δf (x) (A.2.4) Illustrons ces notions sur un cas utile en DFT classique, par exemple la contribution idéale à la fonctionnelle d'énergie libre de l'éq. A.1.1. βδFid = βFid [ρ(r) + δρ(r)] − βFid [ρ(r)] &'$ ̊! ρ(r) + δρ(r) (ρ(r) + δρ(r)) ln − ρ(r) + δρ(r) + ρb dr = ρb R3 &'' ̊ & ρ(r) ρ(r) ln − ρ(r) + ρb dr − ρb R3! &'$ $ ̊! ρ(r) δρ(r) (ρ(r) + δρ(r)) ln + O(δρ(r)2 ) − ρ(r) − δρ(r) + ρb dr + = ρb ρ(r) R3'' & ̊ & ρ(r ) − ρ(r) + ρb dr ρ(r) ln − ρb R3'&'̊ & ρ(r) 2 = δρ(r) ln + δρ(r) + O(δρ(r) ) − δρ(r) dr ρb 3 &'' ̊R & ρ(r) 2 = δρ(r) ln + O(δρ(r) ) dr ρb R3 qui, par identification avec l'éq. A.2.4, donne la dérivée fonctionnelle de la partie idéale, δFid = ln β δρ(r) & ρ(r) ρb '. (A.2.5) 131 B. Démonstration : Le grand potentiel est une fonctionnelle des densités de particule et de polarisation B.1. La densité qui minimise le grand potentiel est la densité d'équilibre Cette démonstration a déjà été réalisée en sec. 2.2.2 et ne supposait pas d'écriture particulière du hamiltonien. Les résultats obtenus sont toujours vrais pour le hamiltonien de l'éq. 3.3.6. On a donc : 1 0 Θ [f ] = Trcl f (HN − μN + β −1 ln f ), (B.1.1) Θ [f0 ] = −kB T ln Ξ = Θ, (B.1.2) Θ [f ] > Θ [f0 ], si f ̸= f0. (B.1.3) B.2. L'énergie libre intrinsèque est une fonctionn elle unique des densités de particule et de polarisation On veut introduire les deux nouvelles fonctionnelles, et /0 -. F[n(r), P (r)] = Trcl f0 K + U + β −1 ln f0, ΘV [n(r), P (r)] = F[n(r), P (r)] + ̊ R3 Ψn (r)n(r)dr + − 1. On rappelle l'expression de la trace classique : Trcl = ∞ % N=0 1 h 3N N! ˆ *** ˆ R3N ˆ *** ˆ drdrN dp1 dpN R3N 132 (B.2.1) ̊ R3 P (r)E(r)dr , (B.2.2) B.3 Démonstration : F est une fonctionnelle unique de n(r) et P (r) où Ψn (r) = Φn (r) − μ. L'indice V dans l'éq. B.2.2 rappelle que cette fonctionnelle dépend de la forme choisie pour le potentiel extérieur, c' est donc une notation compacte du couple (φn, E). Nous allons montrer qu'il est possible d'écrire ces deux fonctionnelles. B.3. Démonstration : F est une fonctionnelle unique de n(r) et P (r) La densité de probabilité d'équilibre est une fonction des champs extérieurs Φn et E. Puisque n0 (r) = Trcl [f0 ñ(r)] (B.3.1) 2 1 P0 (r) = Trcl f0 P̃ (r), (B.3.2) et n0 (r) et P0 (r) à l'équilibre sont eux aussi des fonctionnelles de ces champs extérieurs 2. Supposons qu'il existe deux couples de champs extérieurs différents qui engendrent les mêmes densités de particule et de polarisation à l'équilibre (n(r), P (r)). Au hamiltonien HN on associe la dis′ on associe tribution de probabilité à l'équilibre f0 et le grand potentiel Θ. Au hamiltonien HN la distribution de probabilité à l'équilibre f0′ et le grand potentiel Θ′. D'après l'éq. B.1.3, on a 1. /2 ′ Θ′ = Trcl f0′ HN − μN + β −1 ln f0′ < Θ [f0 ], (B.3.3) 1. 1. /2 /2 ′ ′ − μN + β −1 ln f0′ < Trcl f0 HN − μN + β −1 ln f0, Θ′ = Trcl f0′ HN (B.3.4) ′ Θ <Θ+ ̊ R3 n0 (r)(φ′N (r) − φN (r))dr − ̊ P0 (r) * (E ′ (r) − E(r))dr. (B.3.5) ̊ P0 (r) * (E(r) − E ′ (r))dr. (B.3.6) R3 En échangeant les rôles de Θ et Θ′, on trouve ′ Θ<Θ + ̊ R3 n0 (r)(φN (r) − φ′N (r))dr − R3 En sommant l'éq. B.3.5 et l'éq. B.3.6 on obtient Θ + Θ′ < Θ′ + Θ, ce qui est absurde. À un couple de densité de particule et de polarisation n'est donc associé qu'un unique potentiel extérieur. Le potentiel extérieur est déterminé de manière unique par les densités d'équilibre et réciproquement. Il en suit que la distribution de probabilité est une fonctionnelle unique des densités d'équilibre. La fonctionnelle donnée à l'éq. B.2.1 est donc une unique fonctionnelle des densités d'équilibre n et P. Elle est dite universelle car elle possède la même expression pour tous les potentiels extérieurs. Montrons que la fonctionnelle introduite en éq. B.2.2 est égale au grand potentiel à son minimum. 2. On rappelle que les ~ désignent les fonctions microscopiques. 133 B.3 Démonstration : F est une fonctionnelle unique de n(r) et P (r) Pour les densités d'équilibre n0 (r) et P0 (r), cette fonctionnelle est égale au grand potentiel, ΘV [n0 (r), P (r)] = Θ. (B.3.7) Supposons qu'il existe des densités de particule et polarisation n′ (r) et P ′ (r) associées à une distribution de probabilité f ′. - 0 0 Θ f ′ = Trcl f ′ (HN − μN + β −1 ln f ′ ) ̊ ̊ 0 - ′ ′ ′ Ψn (r)n (r)dr + P ′ (r)E(r)dr = F n (r), P (r) + R3 R3 0 = ΘV n′ (r), P ′ (r). En utilisant l'éq. B.1.3, on a alors 0 ΘV n′ (r), P ′ (r) > ΘV [n0 (r), P0 (r)]. (B.3.8) Ainsi, les densités d'équilibre n0 (r) et P0 (r) minimisent la fonctionnelle ΘV [n(r), P (r)], ce que l'on peut noter : 5 5 δΘV [n(r), P (r)] 55 δΘV [n(r), P (r)] 55 5 = 0 et 5 = 0. δn(r) δP (r) n0 P0 (B.3.9) 134 C. Fonctionnelle de la densité du fluide de sphères dures Nous avons implémenté une fonctionnelle pour le fluide de sphères dures. La théorie de la mesure fondamentale (FMT) a été introduite par Rosenfeld, nous la notons R-FMT[69]. Cette fonctionnelle est une excellente approximation de la fonctionnelle d'excès pour un fluide composé de sphères dures de rayon R0. Elle nécessite le calcul de densités convoluées avec des fonctions poids : ̊ Φ({nα (r)})dr, (C.0.1) ρ(r)ωα (r − r ′ )dr ′ = ρ(r) ⋆ ωα (r), (C.0.2) Fexc [ρ(r)] = kB T R3 avec, nα (r) = ̊ R3 où les ωα désignent des fonctions poids géométriques que l'on définit plus bas, ⋆ désigne le produit de convolution et Φ est une densité d'énergie libre. On donne la dérivée de cette énergie libre par rapport à la densité : δFexc δρ(r) = kB T = kB T Nw ̊ % α=1 Nw % N R3 w % δΦ δnα (r ′ ) ′ dr = k T B δnα (r ′ ) δρ(r) α=1 δΦ ⋆ ωα (r) ′) δn (r α α=1 ̊ R3 δΦ ωα (r − r ′ ) dr ′ δnα (r ′ ) (C.0.3) qui s'exprime comme une somme des dérivés partielles de Φ par rapport aux fonctions poids. Kierlik et Rosinberg ont dérivé une version alternative plus simple de FMT, que nous notons KRFMT. Phan[120] et collaborateurs ont démontré que la formulation KR-FMT est équivalente à la formulation vectorielle R-FMT. Cette formulation fait intervenir moins de fonctions poids que la formulation de Rosenfeld. On calcule ces fonctions poids, qui sont des produits de convolution, par FFT. La formulation de KR diminue donc le nombre de FFT à réaliser. C'est donc la version que nous avons implémenté dans le code mdft[53]. Fonctionnelle de la densité du fluide de sphères dures Elle nécessite quatre fonctions poids scalaires ωα avec α = 0, 1, 2, 3. 1 ′′ 1 ′ δ (R0 − r) + δ (R0 − r), 8π 2πr 1 ′ ω1 (r) = δ (R0 − r), 8π ω2 (r) = 4πR0 ω1 (r) = 4πR20 ω0 (r) = δ(R0 − r), (C.0.6) ω3 (r) = Θ(R0 − r), (C.0.7) ω0 (r) = − (C.0.4) (C.0.5) où Θ désigne la fonction de Heaviside et δ la distribution de Dirac. Cette formulation peut être utilisée avec une densité d'énergie libre Φ dérivant de la théorie de Percus-Yevick ou de Carnahan-Starling. Les deux densités d'énergie libre, celle de Percus-Yevick (PY) ΦPY [nα ] = −n0 ln (1 − n3 ) + n1 n2 1 n32 + 1 − n3 24π (1 − n3 )2 (C.0.8) et celle de Carnahan-Starling (CS) ΦCS [nα ] = &'1 n32 1 n32 n1 n2 +, − n 0 ln (1 − n3 ) + 2 36π n3 1 − n3 36π (1 − n3 )2 n3 (C.0.9) sont implémentées dans le code. Kierlik et Rosinberg ont montré que CS donne des résultats plus précis mais que son utilisation sans modification des fonctions poids cause une inconsistance thermodynamique. Dans la pratique, nous utilisons toujours la relation de CS. Le potentiel chimique du fluide de sphères dures et la fonction de corrélation directe peuvent être calculés par dérivation fonctionnelle, μHS exc et 5 δFexc [ρ(r)] 55 =, δρ(r) 5ρ(r)=ρb cHS 000 (r; ρb ) 5 δ2 Fexc [ρ(r)] 55. =− δρ(r)δρ(r ′ ) 5ρ(r)=ρb (C.0.10) ( C.0.11 ) Ces fonctions sont à calculer si on veut utiliser le bridge de sphères dures décrit au chapitre 3. En pratique, la fonction de corrélation directe est calculée efficacement dans l'espace de Fourier, cHS 000 (k; ρb ) = − % α,β ∂2Φ A b B ( nγ )ω̂α (k)ω̂β (k), ∂nα ∂nβ (C.0.12) C D où nbγ représente l'ensemble des fonctions pondérées pour le fluide de sphères dures homogène de densité ρb ; et ω̂α (k) les transformées de Fourier des fonctions poids. 136 D. Dérivées des fonctionnelles Les dérivées des différentes parties des fonctionnelles utilisées dans ce manuscrit sont rassemblées ici. La dérivée de la partie idéale de l'éq. 3.2.2 est & δFid [ρ ( r, Ω)] = kB T ln δρ(r, Ω) ρ(r, Ω) ρb'(D.0.1). Celle de la partie extérieure donnée en éq. 3.2.3 est δFext [ρ(r, Ω)] = vext (r, Ω). δρ(r, Ω) (D.0.2) Ces deux termes ne posent aucun problème particulier pour être calculés. La dérivée de la partie d'excès dipolaire de l'équation éq. 3.2.6 est ̊ δFexc [ρ(r, Ω)] [c000 (∥r12 ∥)∆n(r1 )] dr1 = kB T δρ(r2, Ω) R3 ̊ 1 − kB T [c101 (∥r12 ∥)∆n(r1 )] dr1 2μ 3 R ̊ 1 − kB T [c101 ((∥r12 ∥)P (r2 ) * ũ12 ] dr1 2 R3 ̊ 1 + kB T [c011 (∥r12 ∥)∆n(r1 )] dr1 2μ 3 ̊ R 1 [c011 (∥r12 ∥)P (r2 ) * ũ12 ] dr1 + kB T 2 3 ̊R 1 − kB T [c112 (∥r12 ∥)3(P (r1 ) * ũ12 ) − P (r1 )] dr1 μ R3 δFcor [ρ(r, Ω)] + δρ(r, Ω) (D.0.3) (D.0.4) Ces gradients sont des produits de convolution faciles à calculer par FFT, méthode employée de manière systématique dans le code. La dérivée de la partie d'excès multipolaire de l'éq. 3.3.12 peut se décomposer en la somme de sa dérivée par rapport à la densité et celle par rapport à la polarisation, 1 δFexc [∆n(r), P (r)] = β δ∆n(r2 ) 2 ̊ R3 S −1 (∥r12 ∥)∆n(r2 )dr2 − 137 ̊ R3 ∆n(r2 ) δβFcorr [∆n(r), P (r)]. dr2 + n0 δn(r2 ) Dérivées des fonctionnelles (D.0.5) La dérivée par rapport à la polarisation est beaucoup plus facile à exprimer directement dans l'espace de Fourier, " # 1 −1 3 P̂ (k) μ̂(k, Ω) + ( k ) P̂ (k) P̂ (k) * k k χ̂ L 8 πε 0 L μ 0 n20 δ P̂ ( k ) 1 " # 2 1 −1 χ̂T (k)P̂T (k) μ ̂(k , Ω ) − P ̂ (k ) * k k . + 8 πε 0 β δ Fexc [∆n̂(k), P̂ (k)] = (D.0.6) Il faut ensuite calculer les composantes de cette dérivée dans l'espace direct, donc en effectuer la transformée de Fourier inverse. La dérivée du terme de correction à trois corps de l'éq.
12,423
739a35acbd11aae3fdb68e8233107f8e_2
French-Science-Pile
Open Science
Various open science
1,945
Algèbre et géométrie de l'équation de Riccati
None
French
Spoken
1,338
2,925
les équations (44) Le point L est en n sur la normale en M à la courbe-base. Les pantes généralisées (Ni) sont détel minées par l’équation de Riccati dévelop- qui, avec la notation et la transformation Sous cette forme nous voyons apparaître la solution particulière. Posant alors : On ramène la forme canonique (64) à l’équation de Bernouilli que l’on sait intégrer. 42. ’. - ’ Le quadrilatère fondamental M Nf L N2 est inscriptible. Admettant l’existence d’une développante généralisée (Nf) et d’une dévelop- - .. pée généralisée (N2) pour une courbe-hase (M), nous déterminons un « quadrilatère fondamental convexe » qui possède un aogJe droit en M. Il sera donc - inscriptible si l’angle en L est également droit. Exprimons que le produit des. ’ pentes des droites LN1 et LN~ est égal à - i, nous obtenons la relation : c’est-à-dire Donnons une interprétation géométrique simple â (a. ,. _ -~ ~ -~ Soit M‘Y(o le vecteur ’de composantes -~ et le. symétrique par rapport à Mm, bissectrice intérieure de l’angle (M~~~, MN 1) ‘ -~. Posons alors (Mm, M~~) c~, l’égalité (16~) s’écrit: teur =. La relation (167) jointe deux équations différentielles (153) permet de déterminer les coordonnées aux paramétriques F et G de la courbe adjointe. Si nous vouions en outre le quadrilatère fondail mental soit nous faut remplacer la relation (167) par les deux )que égalités. d’où les coordonnées du point L : - est égal à un trinôme du second Ainsi lorsque ,le carré de la distance degré en Ty à coefficients constants de la forme (171), le quadrilatère fondamental est uri rectangle. Quant aux courbes (Ni), elles sont données par les égalités (1 69) qui s’écrivènt " ’. , ,. Celles-ci montrent que dans le cas considéré la développante généralisée (Ni) n’est autre que la développante classique de la courbe (M) et que la développée généralisée (N 2) est une courbe parallèle à la courbe-base. 421. - La courbe-base est un cercle. Supposons par exemple que la courbe-base soit un cercle de rayon r ; la développée généralisée (N~) est alors le cercle concentrique de rayon r + r~. est la développante classique, que l’on sait La développante généralisée de rebroussement en A. Le avec construire, point quadrilatère fondamental N Ni L N2 étant rectangle, la construction de ta courbe adjointe (L) est immé- .. diate. La courbe-base étant représentée par les équations paramétriques ’. nous avons pour le point Ni d’ou pour la courbe adjointe 422. - La courbe-base est une astroïde. Si nous prenons comme courbe-base l’astroïde Sa développante classique a pour coordonnées paramétriques Et la développée généralisée ’ La construction du point L de l’adjointe correspondante est immédiate. Note complémentaire sur l’équation d’Abel. ’ L’équation (152) est extrêmement importante et nous verrons, dans des études ultérieures, que les notions d’isométrie et d’isoradiicité, que nous avons jusque-là attachées à l’équation de Riccati, se trouvent également et surtout liées à l’équation d’Abel. Il y aura donc ce que nous pouvons dès à présent appdler «une canonisation géométrique de l’équation d’Abel ». Celle-ci nous permettra d’associer à des courbes planes des « ultradéveloppantes de première espèce » parmi lesquelles doivent se trouver, en cas particulier, les développantes généralisées liées à une équation de Riccati. ’ ~ , , INDEX BIBLIOGRAPHIQUE DES OUVRAGES CONSULTÉS [A] CARTAN (E.) La méthode du repère mobile, la théorie des groupes continus et les espaces généralisés. Exposés de Géométrie, V, (Paris, - - Hermann, 1935). Leçons sur la théorie des Espaces à Connexion projective. (Paris, Gauthier-Villars, 1937). BUHL (A.) Nouveaux Eléments d’Analyse, t. II et t. III (Paris, [B] Gauthier-Villars, 1940.) RAFFY (L.) Nouvelles Annales de Mathématiques (1902). [C] LAGRANGE (R.) Bulletin de la Société Mathématique de France, [D] t. LXVI, fasc. 3-4, (1938). DRACH (J.) Comptes rendus de l’Académie des Sciences (26 octo[E bre 1937). [F] HALPHEN (G.) 2014 Thèse. Université de Paris (1878). 0152uvres, t. I et II. (Gauthier-Villars, 1916). 2014 Bulletin de la Société Mathémat. de France, t. IV et V (1876, 76). 2014 ZEUTHEN (N.) Mathematische Annalen, t. III (1871). ABRAMESCU (N.) Courbure affine et développée affine. Mathematica, [G] XXI, (1945); XXII (1946, Bucarest). BOUTROUX (P.) Recherches sur les Transcendantes de M. Painlevé [H] et l’étude asymptotique des Equations différentielles du second ordre (Mémoire couronné). Annales de l’Ecole Normale, t. XXX, troisième série (1913). Voir également : Fonctions multiformes à une infinité de bran- - - - 2014 - - - - - - - - - - - - [I] [J] [K] - - ches, loc. cit. t. XXII (1905). KLEIN (F.) Vorlesungen über die Hypergeometriche Funktion. J. Springer (Berlin, 1933). DARBOUX (G.) Théorie générale des surfaces, t. I et II. Comptes rendus Académie des Sciences, t. LXXXXIV (1882). 2014 - POMPEIU. Comptes rendus Académie des Sciences, t. CLXI (1915). 2014 MINETTI. Comptes rendus Académie des Sciences, t. CLXXXXVII (1933). Atti R.A.N. Lincei, t. XIX (1934). BOULIGAND (G.) [L] Leçons de Géométrie vectorielle (Paris,Vui2014 - - - - bert, 1936). [M] [N] [O] - - 2014 GAMBIER (B.) - Bulletin des Sciences Mathémat. t. XXXXIV (1920). LIOUVILLE (R.) 2014 « Sur une équation différentielle du premier ordre ». Acta Mathematica, t. XXVII (1903). ABEL (N.-H.) - 0152uvres complètes, t. II, n° 5 (Oslo, 1881). TABLE DES MATIÈRES DE CE MÉMOIRE Pages et ses formes canoniques. L’équation de 11 - Obtention de formes canoniques ................................ 4 5 12- Famille des formes canoniques t3- Sur quelques cas élémentaires d’intégrabilité ..... 7 Les exemptes de René I3I L’équation linéaire du second ordre............................ 10 Chap. I. - _, ................................. ’ -2014 - , , 1 5- La’ résolvante schwarzienne du troisième ordre . : ........ -........ Chap. II. ; .‘ - 12 - Développantes généralisées d’une courbe plane. Position du problème ........................................ 13 Mise en équation 13. 16 23- Courbes isométriques Sur des 24 développantes généralisées particulières I7 24I 2014 Le triangle fondamental est rectangle, son sommet décrit la 21 - 22’ ~ ............ , ............................... ........................................ ................. , développante.. _ , 242 -- La sous-tangente généralisée de la développante (N) est liée par une relalion sirnple à une des hauteurs du triangle fondamental. 25- Existence de deux cas particuliers... , .... , .... , ......’.... ’,’ ... 19 , o 251 2014 Impossibilité du cas ù) 1 9 252 Le triangte fondamental est rectangle, son sommet décrit la cour= ’. ............................. - - .............................. n ......... r ............. 20 2521.- La forme réduite de M.-E. G.~uT.~x................... 26- La courbe-base et son adjointe sont des cercles................. :1 261 - Développante de cercle généralisée à ~1points de rebroussement.... 262 Développante de cercle généralisée à 4 rebroussements 263 - Cas de la cisso’ide de Diodes........................... Développantes généralisées de courbes à adjointes rectiiignes ...... 21 -. - ...... _ " 22 23 25 ’ 27 28 (tes tangentes à la courbe-base étant liées par une relation simple à un point fixe de l’adjointe). 1 Cas particulier K 2g 3r 2711.- Cas de la parabole : Le point fixe est au sommet de la parabole. 27111. Quelles sont les développantes parmi lesquelles se trouve ° 2014 ,,. = .................................. ° .- .............................. ~. ’ (L) ? 1 ................................................. 33 64 Chap. III Développées généralisées d’une courbe plane. 3 1 - Position du problème ..................’...................... 37 32-Mise en équation............................................/ 38 33-Courbes isoradiiques......................................... 39 - ’ 4i 341. le triangle fondamental est rectangle, son sommet décrit la courbe-base......;..................................... ~ii. 3~11. - Courbes (M) à adjointes rectitignes ................... ~2 - 34111. - La courbe-base est un cercle ...................... 43 34ii2. - La courbe-base est un ecycloïde ................... 46 34i i3. - La courbe-base est une chaînette ................... 48 La forme réduite de M. E. CARTAN ................... 50 Remarque: Inéquation dAbe)....~................................. 52. 352. - Adjointes doubles à une courbe plane. Chap. 4 4i- Cas de dégénérescence ........................................ 55 42- Le quadrilatère fondamental MN1 LN2 est inscriptible .. , .......... 56 La courbe-base est un cercle ........................... 59 42i. - - 422. - La courbe-base est une astroïde Note complémentaire sur l’équation Index bibliographique des ouvrages consultés ..................... 60 61 ....................... 62 ........................ , ’.
50,095
823948f81fe684585cf2f674f04c340c_4
French-Science-Pile
Open Science
Various open science
2,017
Proportion d'entités publiques recourant « au moins parfois » aux éclairages comportementaux, selon le stade de l'action publique (2016)
None
French
Spoken
8,033
13,527
certain nombre de pays de l’OCDE ont mis en place un service central d’audit interne doté d’objectifs stratégiques propres en matière d’intégrité afin de contrôler l’équité de l’action publique dans l’ensemble des domaines de l’action publique et des entités publiques (voir chapitre 7 : intégrité du secteur public). l’existence d’un service central d’audit interne, surtout lorsque l’intégrité figure parmi ses objectifs stratégiques, peut renforcer la cohérence de l’action administrative face aux risques en matière d’intégrité. 3.4 Données publiques ouvertes la technologie est en train de modifier profondément le degré d’ouverture des administrations publiques. Au cours des vingt dernières années, un progrès technologique rapide s’est traduit par une forte augmentation des données collectées et produites dans les sociétés, y compris par les entités publiques. Cette évolution accroît la quantité d’informations disponibles permettant de demander des comptes aux administrations publiques. De plus, elle offre à un large éventail d’utilisateurs, à l’intérieur comme à l’extérieur de l’administration, des outils leur permettant de participer aux débats relatifs à l’action publique et de créer de la valeur à partir de cette abondance de données. PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 53 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs la diffusion proactive de données publiques ouvertes est en train de révolutionner les services publics dans les domaines de la santé, de l’éducation, des transports, de la sécurité et de l’environnement (pollution, gestion des déchets) aux niveaux national et infranational. Elle contribue à améliorer l’action publique en ouvrant l’accès aux données et aux faits à l’ensemble des services et ministères, ce qui contribue à abattre les silos. Elle permet aussi aux entreprises et à la société civile de contribuer plus activement à l’action publique. la prolifération des applications de téléphonie mobile utilisant les données géospatiales n’est qu’un exemple de la manière dont les données confèrent un pouvoir aux particuliers et aux entreprises en permettant un meilleur accès et en créant de nouveaux services. l’édition 2016 de l’indice Ourdata de l’OCDE mesure les efforts consentis par les pouvoirs publics pour favoriser la disponibilité et l’accessibilité des données et pour encourager leur réutilisation à l’extérieur et à l’intérieur de la sphère publique. À partir de la Charte internationale sur les données ouvertes et du cadre élaboré par l’OCDE, des pays tels que la Corée, la France et le royaume-uni ont atteint un stade particulièrement avancé dans leurs efforts visant à promouvoir les données publiques ouvertes afin de produire un impact socioéconomique. À l’opposé, la turquie doit encore adopter et appliquer certaines des bonnes pratiques identifiées au niveau international concernant les données publiques ouvertes (voir chapitre 10 : gouvernement ouvert). graphique 1.8. Indice OURdata sur les données publiques ouvertes, utiles et réutilisables (2017) Disponibilité des données Accessibilité des données Action officielle en faveur de la réutilisation 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 L CO KO R FR A JP N GB R M EX ES P CA N AU T FI N AU S NL D US A NZ L NO OC R DE GR C IR L IS R IT A SV N PO L BE L ES T CZ E CH E DE U SV K PR T SW E CH L LV A TU R 0 Source : Enquête 2016 de l’OCDE sur les données publiques ouvertes Pour en savoir plus, voir Panorama des administrations publiques 2017, Chapitre 10 : gouvernement ouvert Cette année, l’indice Ourdata a mis en évidence un certain nombre de grandes conclusions : ●● Le soutien à la réutilisation des données publiques ouvertes pourrait être renforcé : les administrations publiques ont consenti d’importants efforts pour fixer des règles formelles de divulgation d’une grande quantité de séries de données sous des formats ouverts, exempts de restrictions et réutilisables. toutefois, peu d’entre elles ont adopté une approche proactive visant à encourager la réutilisation des données à l’extérieur de la sphère publique (par des initiatives de sensibilisation aux données, des marathons de programmation ou des manifestations de cocréation) comme à l’intérieur de cette 54 PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs sphère (par des séances d’information ou des sessions régulières de formation destinées aux agents publics). ●● Il existe des lacunes au niveau de la mise en œuvre parmi les pays qui ont adopté tardivement des politiques et pratiques d’ouverture des données publiques : un certain nombre de réformateurs récents dans le domaine des données publiques ouvertes – la république slovaque, la république tchèque ou encore la slovénie, par exemple – n’ont pas encore mis en œuvre quelques-unes des politiques adoptées. À l’inverse, des pays comme le Canada, la Corée, les États-unis, la France et le royaume-uni, qui ont été parmi les premiers à lancer des politiques d’ouverture des données publiques, en sont à un stade plus avancé de la mise en œuvre, surtout pour ce qui est de la disponibilité et de l’accessibilité des données via un portail central/fédéral de données. ●● la consultation des parties prenantes est une pratique courante pour éclairer les politiques en matière de données publiques ouvertes, mais peu de pays se sont dotés de plateformes sur lesquelles les usagers peuvent jouer un rôle actif afin de contrôler la qualité des données disponibles et de les compléter. ●● Peu de pays suivent de près l’impact économique et social de l’ouverture des données publiques ainsi que son impact sur les performances et la productivité du secteur public. Or, un suivi de l’impact est indispensable pour favoriser une amélioration permanente et pour mieux comprendre les effets des mesures d’ouverture des données publiques. l’OCDE examine actuellement comment les pays peuvent favoriser la productivité et l’efficacité des politiques en encourageant davantage la réutilisation des données ; toutefois, à mesure que la frontière technologique recule, de nouvelles questions apparaissent : suffit-il, par exemple, d’ouvrir des séries de données, ou faut-il aussi renforcer la transparence autour de la manière dont ces données sont utilisées, y compris par le truchement d’algorithmes informatiques exploités par des administrations publiques et par des partenaires prestataires de services ? 4. Au-delà des frontières nationales : l’utilité de la coopération réglementaire internationale les défis les plus complexes auxquels les pays aient à faire face à l’heure actuelle transcendent les frontières nationales. les menaces liées aux changements climatiques, aux épidémies, au terrorisme, à la fraude fiscale, aux flux financiers illicites ainsi qu’aux crises économiques et sociales ont toutes des origines et des répercussions d’ampleur internationale. Plus que jamais, les pays doivent coordonner leur action pour faire face aux défis communs, gérer les biens mondiaux et assurer une prospérité et une sécurité partagées. la coopération réglementaire internationale (Cri) permet de mieux répondre aux problèmes complexes qui dépassent les frontières nationales. C’est l’objet du douzième principe de la Recommandation du Conseil concernant la politique et la gouvernance règlementaires (OCDE, 2012). il existe une large palette d’instruments de coopération réglementaire internationale. l’OCDE (2013c) a répertorié 11 mécanismes différents, depuis l’harmonisation des règles et des lois d’un pays à l’autre jusqu’aux traités et accords, aux activités normatives conjointes et aux accords de reconnaissance mutuelle, en passant par des outils plus informels tels que des instruments non contraignants de type principes ou lignes directrices, ou encore des dispositifs informels de dialogue et d’échange de renseignements. D’ordinaire, les administrations publiques ont simultanément recours à plusieurs outils de Cri. PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 55 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs les exemples de réussites montrent que l’on peut tirer grand profit de la Cri (voir encadré 1.3). Dans le même temps, il serait possible de procéder à une Cri beaucoup plus systématique dans le cadre de bonnes pratiques réglementaires, et de l’intégrer aux processus de l’action publique. Des lignes directrices pourraient être élaborées pour aider les pays à mieux déterminer les situations où la Cri pourrait apporter des solutions prometteuses à des problèmes stratégiques, et pour les aider à mieux cerner les avantages, les coûts et les handicaps des différents mécanismes de Cri. Encadré 1.3. Harmonisation des outils et politiques de sécurité des produits chimiques dans le cadre du Programme environnement, santé et sécurité de l’OCDE les pays de l’OCDE se sont dotés de cadres règlementaires complets pour prévenir et/ou minimiser les risques que présentent les produits chimiques pour la santé et l’environnement. Ces cadres permettent de veiller à ce que les produits chimiques commercialisés soient manipulés dans des conditions de sécurité satisfaisantes, et à ce que les nouveaux produits chimiques soient dûment évalués avant d’être commercialisés. Cependant, la coexistence de différentes politiques nationales de contrôle des produits chimiques peut se traduire par des doublons au niveau des essais. Elle peut aussi créer des barrières non tarifaires ou techniques au commerce des produits chimiques, décourager la recherche, l’innovation et la croissance et allonger les délais de mise sur le marché des nouveaux produits. le système d’acceptation mutuelle des données (AmD) mis au point dans le cadre du Programme environnement, santé et sécurité de l’OCDE contribue à limiter les différences inutiles entre les cadres réglementaires et à faciliter le partage du travail entre les pays. Créé en 1981, le système d’AmD repose sur trois décisions du Conseil de l’OCDE qui ont une valeur contraignante pour tous les pays de l’OCDE et les adhérents non membres de l’OCDE. Ces décisions imposent l’acceptation mutuelle des données sur la sécurité des produits chimiques qui ont été obtenues conformément aux normes de l’OCDE dans tout pays membre. De plus, des réunions de représentants officiels et d’experts du secteur privé et de la société civile sont régulièrement organisées dans le cadre du Programme environnement, santé et sécurité, ce qui facilite la mise au point de nouveaux instruments, documents d’orientation et bases de données favorisant l’harmonisation des programmes chimiques et le partage des tâches. le système d’AmD facilite la réduction et la suppression des barrières non tarifaires au commerce liées aux différences entre les réglementations. il permet également de répartir la charge des essais de produits chimiques entre les pays membres, ce qui se traduit par des économies et une meilleure gestion du risque, car les effets des produits chimiques peuvent dépasser les frontières nationales. le Programme environnement, santé et sécurité constitue une plateforme d’échange international de renseignements techniques et stratégiques qui éclaire l’élaboration de nouvelles politiques de sécurité des produits chimiques et contribue à la poursuite de la rationalisation des cadres réglementaires. une étude de l’OCDE datant de 2010 estime à 153 mEur les économies annuelles nettes générées par le Programme environnement, santé et sécurité. les économies découlent principalement des essais redondants évités et de l’utilisation de formats normalisés pour la documentation et les évaluations. Cette estimation ne tient pas compte d’importants avantages non quantifiables du Programme, y compris les gains sanitaires et environnementaux liés à une meilleure évaluation des produits chimiques, le raccourcissement des délais de commercialisation des nouveaux produits et la constitution d’une expertise collective permettant de mettre au point des méthodes plus efficaces d’évaluation des produits chimiques. Source : OCDE (2013b) 56 PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs les organisations internationales sont un acteur majeur de la promotion de la Cri. la gouvernance des organisations internationales et la manière dont elles établissent les normes internationales se caractérisent par une grande diversité. la plupart des organisations privilégient dans une large mesure les instruments d’action juridiquement non contraignants et font office de plateformes de formulation de lignes directrices et d’échange de renseignements. les organisations internationales participent surtout à la planification, à la conception et à l’élaboration des règles et normes internationales, et recueillent des contributions et un retour d’information auprès des parties prenantes. seules quelques-unes assurent le suivi systématique de la mise en œuvre de leurs instruments ou évaluent leurs retombées. Cela s’explique principalement par des problèmes d’ordre méthodologique, par un manque de ressources ou par l’absence de mandat, cette responsabilité étant le plus souvent confiée aux membres. il est indispensable de redoubler d’efforts pour instaurer une culture d’évaluation des instruments des organisations internationales, et de renforcer la coordination entre leur secrétariat et leur public, pour obtenir davantage de données probantes sur l’efficacité de l’action des organisations internationales en matière de coopération réglementaire internationale (OCDE, 2016a). Conclusion Outil important, la réforme du secteur public est pourtant exposée à la pression croissante des forces qui alimentent la fragmentation du monde moderne. reste à savoir si les stratégies traditionnelles de réforme peuvent être remplacées par de nouvelles approches axées sur les réalisations, les éléments de mesure et les données probantes, et sur des méthodes de travail reposant de façon permanente sur l’expérimentation, l’ajustement et l’innovation. l’aptitude des pays à s’adapter à un monde en mutation constante dépend en grande partie de leur capacité à mobiliser les dispositifs et le capital humain qui existent au sein des institutions publiques. l’exercice d’un fort leadership par les responsables publics et le centre de gouvernement est indispensable pour garantir l’efficacité de la coordination et de la mise en œuvre dans l’ensemble des secteurs de l’action publique, et pour que les réformes fondées sur des données probantes bénéficient réellement à tous. les éclairages tirés d’un certain nombre de nouveaux outils tels que les approches systémiques ou les sciences comportementales peuvent, à l’instar des nouvelles technologies, ouvrir la voie à de nouvelles manières de travailler. toutefois, l’adaptabilité des administrations publiques tient aussi, et peut-être surtout, à leur capacité et à leur volonté de prendre des risques, de tirer des enseignements des résultats obtenus et d’ajuster leurs pratiques en conséquence. les lois et les normes peuvent favoriser d’importants facteurs et moteurs du changement, tels que l’intégrité, le recours aux données probantes et l’ouverture, mais l’expérience montre également qu’elles ne suffisent pas nécessairement, à elles seules, à susciter une adhésion durable aux valeurs. la participation des citoyens à l’action publique et à la prestation des services publics devra être complétée et renforcée par des ressources telles que les données publiques ouvertes, et par des initiatives de sensibilisation comme celles qui visent les élèves des écoles afin d’enraciner les valeurs de participation civique et d’intégrité. De même, l’un des principaux facteurs favorables à un changement permanent consiste à renforcer les capacités des agents publics à agir sur le fondement des données probantes, grâce à un fort leadership au sommet de la hiérarchie, grâce à un changement de culture et grâce à des activités régulières de formation. les agents publics impliqués sont plus enclins à adhérer à cette culture de l’innovation, ce qui signifie qu’il faut accroître la PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 57 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs concertation avec le personnel afin de favoriser une transformation durable. les travaux récents que l’OCDE a effectués sur l’implication des employés abordent ces questions. Enfin, il est crucial d’évaluer les résultats du secteur public et de les communiquer au grand public, surtout à l’heure où une part importante de la population n’a plus confiance dans les autorités publiques. Pour qu’un changement permanent soit possible, il faut que les citoyens et les parties prenantes soient disposés à participer à des consultations publiques sur les objectifs stratégiques, sur l’action menée et sur les résultats obtenus, et à trouver un consensus sur les solutions à privilégier. la publication systématique des résultats des évaluations de l’action publique, et l’annonce des retombées positives des politiques publiques, y compris sur les plateformes de médias sociaux, peuvent également favoriser une plus grande cohésion sociale, stimuler le débat public, renforcer la tolérance au risque et, in fine, consolider l’aptitude à créer le changement. Note 1. l’expression « centre de gouvernement » désigne la structure administrative qui est au service de l’exécutif (c’est-à-dire du Président ou du Premier ministre ainsi que du gouvernement dans son ensemble). le centre de gouvernement connaît des appellations très diverses selon les pays : secrétariat général, secrétariat du Cabinet, chancellerie, bureau/ministère de la présidence, bureau du Conseil des ministres, etc. Dans de nombreux pays, le centre de gouvernement est composé de plusieurs unités aux fonctions diverses. Dans la quasi-totalité des cas, le centre de gouvernement comporte une unité exclusivement placée au service du chef du gouvernement. les appellations de cette unité sont elles aussi nombreuses : Cabinet du Premier ministre, secrétariat du Premier ministre, etc. (OCDE, 2013a). Références batie, s.s. et David b. schweikhardt (2010), « societal concerns as wicked problems: the case of trade liberalisation », Policy responses to societal concerns in food and agriculture: Proceedings of an OECD Workshop, Éditions OCDE, Paris. Deighton-smith, r., A. Erbacci et C. Kauffmann (2016), « Promoting inclusive growth through better regulation: the role of regulatory impact assessment », OECD Regulatory Policy Working Papers, n° 3, Éditions OCDE, Paris. O’Donovan, b. (2014), Editorial for Special Issue of SPAR: The Vanguard Method in a Systems Thinking Context, systemic Practice and Action research, vol. 27, pp. 1-20, doi:10.1007/s11213-012-9247-7. OCDE (à paraître), Policy Advisory Systems: A Cross Country Public Governance Perspective, Éditions OCDE, Paris. OCDE (2017a), Behavioural Insights and Public Policy: Lessons from Around the World, Éditions OCDE, Paris. OCDE (2017b), Recommandation du Conseil sur l’intégrité publique, Éditions OCDE, Paris. OCDE (2017c), « Working with change: systems approaches to public sector challenges », www.oecd.org/ media/oecdorg/satellitesites/opsi/contents/files/SystemsApproachesDraft.pdf. OCDE (2017d), « Preventing Policy Capture: integrity in Public Decision making », Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264065239-en OCDE (2016a), International Regulatory Co-operation: The Role of International Organisations in Fostering Better Rules of Globalisation, Éditions OCDE, Paris. OCDE (2016b), « OECD survey on Planning and Co-ordinating the implementation of the sDgs: First results and key issues », www.oecd.org/gov/cob-sdg-survey-overview-of-results.pdf. OCDE (2016c), Recommandation du Conseil sur l’égalité hommes-femmes dans la vie publique, Éditions OCDE, Paris. OCDE (2016d), « trends in risk Communication Policies and Practices », OECD Reviews of Risk Management Policies, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264260467-en. 58 PAnOrAmA DEs ADministrAtiOns PubliquEs 2017 © OCDE 2017 1. ACCEPtEr lE ChAngEmEnt PErmAnEnt DAns lEs ADministrAtiOns PubliquEs OCDE (2016e), « Engaging Public Employees for a high-Performing Civil service », Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264267190-en. OCDE (2015a), « Delivering from the centre: strengthening the role of the centre of government in driving priority strategies », www.oecd.org/gov/cog-2015-delivering-priority-strategies.pdf. OCDE (2015b), Perspectives de l’OCDE sur la politique de la réglementation 2015, Éditions OCDE, Paris. OCDE (2015c), Slovak Republic: Better Co-ordination for Better Policies, Services and Results, Éditions OCDE, Paris. OCDE (2014a), Recommandation du Conseil sur les stratégies numériques gouvernementales, Éditions OCDE, Paris. OCDE (2014b), Recommandation du Conseil sur la gouvernance des risques majeurs, Éditions OCDE, Paris. OCDE (2014c), Lobbyists, Governments and Public Trust, Volume 3: Implementing the OECD Principles for Transparency and Integrity in Lobbying, Éditions OCDE, Paris, doi: 10.1787/9789264214224-en. OCDE (2013a), « Centre stage: Driving better Policies from the Centre of government », www.oecd.org/ gov/Centre-Stage-Report.pdf. OCDE (2013b), « Chemical safety », in International Regulatory Co-operation: Case Studies, vol. Il y a excédent si, pendant un exercice, les administrations encaissent davantage qu’elles ne dépensent. À l’inverse, lorsque les charges sont supérieures aux recettes, il y a déficit. Des déficits successifs font augmenter la dette publique et, par conséquent, les paiements d’intérêts. nette des intérêts de la dette publique, en pourcentage du PIB, ont été constatées en Finlande, en Norvège et au Royaume-Uni (0.1 point de pourcentage pour chacun de ces pays). Dans la zone OCDE, la stabilisation des soldes budgétaires globaux s’est poursuivie après la crise financière internationale. La pression initiale en faveur de l’assainissement budgétaire s’atténuant, les soldes budgétaires se sont améliorés : en 2015, leur montant moyen dans les pays de l’OCDE a été de −2.8 % du PIB, en progrès par rapport au point bas de −8,4 % atteint en 2009. Toujours en 2015, la Norvège présentait l’excédent le plus élevé, à 6 % du PIB, conformément aux règles budgétaires de ce pays ; elle précédait le Luxembourg (1.4 %), la Corée (1.4 %), la Turquie (1.3 %) et le Chili (1.1 %). En revanche, la Grèce présentait le déficit budgétaire le plus important (5.9 %), sa croissance restant défaillante, devant l’Espagne (5.1 %), le Portugal (4.4 %), le Royaume-Uni (4.3 %) et les États-Unis (4.2 %). Les données relatives au solde budgétaire des administrations publiques sont tirées de la base de données des Statistiques de l’OCDE sur les comptes nationaux, qui sont établies conformément au Système de comptabilité nationale (SCN) ; ce dernier constitue un ensemble de concepts, de définitions, de nomenclatures et de règles approuvés au plan international en matière de comptabilité nationale. Le cadre SCN 2008 est désormais en vigueur dans tous les pays de l’OCDE (voir annexe A). Selon la terminologie du SCN, les administrations publiques se composent de l’administration centrale, des administrations d’États fédérés, des administrations locales et des administrations de sécurité sociale. On calcule le solde budgétaire des administrations publiques, également présenté comme leur capacité de financement (+) ou leur besoin de financement (−) , en soustrayant les dépenses totales des administrations publiques de leurs recettes totales. Les recettes englobent les impôts, les cotisations sociales nettes, les aides et d’autres recettes. Les dépenses englobent la consommation intermédiaire, la rémunération des salariés, les subventions, les revenus de la propriété (dont les paiements d’intérêts), les prestations sociales, les autres dépenses courantes (essentiellement les transferts courants) et les dépenses en capital (transferts en capital et investissements). Le solde primaire est le solde budgétaire déduction faite des paiements d’intérêts nets au titre des engagements des administrations publiques (c’est-à-dire les paiements d’intérêts moins les revenus d’intérêts). Le produit intérieur brut (PIB) est la mesure habituelle de la valeur des biens et services produits par un pays au cours d’une période donnée. En 2016, les soldes budgétaires ont oscillé entre un déficit de 4.5 % du PIB en Espagne et un excédent de 17.2 % en Islande. En Grèce, l’effort de redressement des comptes publics a permis de dégager pour la première fois un excédent, de 0.7 % du PIB, après le point bas atteint en 2009 avec un déficit de 15.1 % du PIB. En Islande, le confortable excédent a résulté de recettes exceptionnelles liées aux contributions patrimoniales des banques impliquées dans la crise financière du pays, qui ont fait augmenter de 52 % les rentrées budgétaires totales. Le solde primaire – c’est-à-dire le solde budgétaire global déduction faite de la charge nette des intérêts de la dette publique – est un aspect particulièrement important de la viabilité à court terme, car il indique dans quelle mesure un État peut honorer ses obligations sans contracter de nouvelles dettes. Par rapport à la charge nette d’intérêts liée au service de la dette, qui constitue un élément incompressible du budget de l’État, le solde primaire donne une image plus claire de la gestion budgétaire d’un pays. En 2015, pour un déficit moyen dans les pays de l’OCDE de 2.8 % du PIB, 2 points de PIB représentaient la charge nette des intérêts, de sorte que le solde primaire moyen ressortait à −0.8 % du PIB. Le Japon avait le déficit primaire le plus important (3.1 %), devant la Grèce (2.6 %), la Finlande (2.5 %), l’Espagne (2.4 %) et le Royaume-Uni (2.3 %) ; on trouvait les excédents primaires les plus élevés en Norvège (3.1 % du PIB), en Islande (2.9 %) et en Turquie (2.9 %). La charge nette des intérêts était la plus lourde au Portugal (4.2 %), en Italie (4 %), en Islande (3.8 %) et en Grèce (3.4 %). En 2016, selon les informations dont on dispose, c’est l’Islande qui a dégagé l’excédent primaire le plus élevé des pays de l’OCDE – 20.6 % du PIB – du fait de la hausse susmentionnée des recettes exceptionnelles, tandis que la Grèce a eu un excédent primaire de 3.8 % du PIB. Entre 2015 et 2016, les hausses les plus fortes de la charge 62 Méthodologie et définitions Pour en savoir plus OCDE (2015), Panorama des comptes nationaux 2015, Éditions OCDE, Paris, http://dx.doi.org/10.1787/na_glance-2015-fr. Notes relatives aux graphiques Les notes relatives aux graphiques sont accessibles dans les Statslinks. Informations sur les données concernant Israël : http://dx.doi. org/10.1787/888932315602. PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 2. FINANCES PUBLIQUES ET ÉCONOMIE Solde budgétaire des administrations publiques 2.1. Solde budgétaire des administrations publiques en pourcentage du PIB (2007, 2009, 2015 et 2016) 2007 % 18 2009 2015 2016 12 6 0 -6 -12 A ZA F CO L CR RU I S LT U CH N BR P PR T GB R US A FR A JP N SV N AU OC S DE SV K FI N IT A PO L BE L CH L NL D IS R IR L HU N DN K CA N LV A AU T M EX IS L CZ E NZ L ES T SW E DE U CH E TU R KO R LU X NO R ES GR C -18 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données). Les données sur les autres grandes économies (Inde et Indonésie) sont tirées des Perspectives de l’économie mondiale du FMI (avril 2017). 12 http://dx.doi.org/10.1787/888933537197 2.2. Solde primaire des administrations publiques et charges d’intérêts nettes en pourcentage du PIB (2015 et 2016) % 8 Solde primaire, 2015 Intérêts nets, 2015 Solde primaire, 2016 Intérêts nets, 2016 6 4 2 0 -2 L A ZA F CR I LT U BR CO IS L NO R JP N GR C FI N ES P GB R FR A AU S US A SV K NL D PO OC L DE DN K LV A PR T SV N ES T BE L SW E CZ E IR L M EX NZ L CA N AU T IS R LU X IT A KO R CH E DE U HU N TU R -4 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données). 12 http://dx.doi.org/10.1787/888933537216 PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 63 2. FINANCES PUBLIQUES ET ÉCONOMIE Épargne nette des administrations publiques L’épargne nette apparaît et s’accumule progressivement lorsque les recettes publiques excèdent les charges, calculées sans tenir compte des dépenses en capital telles que l’investissement public et les transferts aux entreprises publiques ou institutions financières (par exemple à l’occasion des sauvetages intervenus pendant la crise financière). En 2015, dans les pays de l’OCDE, l’épargne nette représentait en moyenne −2.2 % du PIB, en progrès par rapport aux −6.2 % atteints en 2009, mais sans que l’on ait encore retrouvé le niveau d’avant la crise, soit −0.1 % du PIB en 2007. C’est en Espagne que l’épargne nette était la plus négative en 2015, à −5.2 % du PIB. En revanche, c’est en Norvège qu’elle était la plus positive, à 7.7 % du PIB. Selon les données disponibles pour 2016, l’épargne nette a été positive dans huit des 34 pays de l’OCDE : en Islande (19.2 %), en Norvège (5.1 %), au Luxembourg (3.7 %), en Suède (2.3 %), en Estonie (1.7 %), en Allemagne (1.2 %), aux Pays-Bas (0.5 %) et au Danemark (0.1 %). La même année, l’épargne nette a été la plus négative en Espagne (−4.6 %), au Portugal (−3.4 %), en France (−2.6 %), en Belgique (−2.4 %), en République slovaque (−2.3 %) et en Italie (−2 %). Lorsque l’on compare 2015 à 2007, les plus fortes variations de l’épargne nette ont eu lieu dans les pays suivants : la Norvège, où elle passée de 18.3 % du PIB en 2007 à 7.7 % en 2015, tout en restant positive ; l’Espagne, qui a eu la deuxième plus forte variation pendant cette période, passant d’une épargne nette positive de 5.2 % en 2007 à une épargne nette négative de 5.2 % en 2015. Si l’on compare 2015 à 2009, la Grèce a connu la plus forte réduction de l’épargne nette négative, celle-ci passant de −13,2 % à −4 % du PIB ; elle est suivie de l’Irlande (−9.1 % à -0.6%), et de l’Islande (−6.6 % à 1.5 %). Le besoin net ou la capacité nette de financement équivaut à l’épargne nette après prise en compte des dépenses en capital. La différence entre ces deux soldes correspond donc aux dépenses d’investissement ou aux transferts en capital. En moyenne dans les pays de l’OCDE, le déficit (capacité nette/besoin net de financement) a dépassé l’épargne nette de 0.6 p.p. en 2015. Les différences négatives les plus importantes ont été observées en Grèce (2 p.p.) et au Royaume-Uni (1.5 p.p.). S’agissant de la Grèce, l’écart est dû en partie à des transferts en capital (à hauteur de 0,9 % du PIB) qui s’expliquent surtout par la recapitalisation des banques opérée la même année. Dans le cas du Royaume-Uni, la situation similaire découle pour une part du maintien d’une aide aux banques sous forme d’apports de fonds. Au vu des données de 2016, la situation des deux pays évolue : en Grèce, l’écart entre le besoin net et la capacité nette de financement est presque nul du fait de transferts nets en capital positifs (1.4 % du PIB), alors qu’au Royaume-Uni il a légèrement diminué (de 1.4 p.p.). Pourtant, s’agissant du Royaume-Uni, le montant des transferts nets de capital n’a pas varié (0.5 % du PIB). Système de comptabilité nationale (SCN) ; ce dernier constitue un ensemble de concepts, de définitions, de nomenclatures et de règles de comptabilisation approuvés au plan international en matière de comptabilité nationale. Le cadre SCN 2008 est désormais en vigueur dans tous les pays de l’OCDE (voir annexe A). L’épargne nette des administrations publiques équivaut aux recettes courantes moins les dépenses courantes, en tenant compte de l’amortissement. Dans le cas de l’épargne brute, les coûts d’amortissement n’ont pas été déduits des dépenses courantes. L’épargne brute plus les transferts en capital nets (transferts en capital reçus, moins transferts en capital à verser) moins les investissements publics (formation brute de capital et les acquisitions, moins les cessions d’actifs non financiers non produits) constitue le solde budgétaire de capacité nette/de besoin net de financement. (voir la rubrique « Méthodologie et définitions » correspondant à cet indicateur.) À cet égard, la capacité nette/le besoin net de financement reflète la position budgétaire après prise en compte des dépenses en capital : une capacité nette de financement, c’est-à-dire un excédent public, signifie que les administrations fournissent des ressources financières aux autres secteurs. À l’inverse, un besoin net de financement, ou déficit public, signifie que les administrations ont besoin de ressources financières de la part des autres secteurs pour financer une partie de leurs dépenses. Par rapport à la capacité nette/au besoin net de financement, l’épargne nette présente l’avantage d’éviter les distorsions ponctuelles liées à des transferts en capital extraordinaires pouvant être massifs. Elle permet, en outre, d’éviter de restreindre de façon excessive l’investissement public durant les périodes marquées par des programmes d’austérité et par des déficits croissants. Le graphique 2.5, relatif aux transferts en capital nets en pourcentage du PIB, est consultable en ligne (voir annexe F). Pour en savoir plus OCDE (2015), Panorama des comptes nationaux 2015, Éditions OCDE, Paris, http://dx.doi.org/10.1787/na_glance-2015-fr. Notes relatives aux graphiques Les notes relatives aux graphiques sont accessibles dans les Statslinks. Informations sur les données concernant Israël : http://dx.doi. org/10.1787/888932315602. Méthodologie et définitions Les données sur les recettes publiques sont tirées de la base de données des Statistiques de l’OCDE sur les comptes nationaux, qui sont établies conformément au 64 PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 2. FINANCES PUBLIQUES ET ÉCONOMIE Épargne nette des administrations publiques 2.3. Épargne nette des administrations publiques en pourcentage du PIB (2007, 2009, 2015 et 2016) 2007 % 20 2009 2015 2016 15 10 5 0 -5 -10 ZA F LT U CO L CR I RU S ES P US A GR C PR T JP N GB R FR A FI OC N DE LV A BE L SV K NL D IS R SV N IT A AU S CZ E PO L CA N IR L M EX HU N DN K AU T DE U SW E IS L NZ L ES T CH E TU R LU X KO R NO R -15 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données). 12 http://dx.doi.org/10.1787/888933537235 2.4. Comparaison entre l’épargne nette des administrations publiques et la capacité nette/le besoin net de financement en pourcentage du PIB (2015 et 2016) % 10 Epargne nette, 2015 Capacité nette/besoin net de financement, 2015 Epargne nette, 2016 Capacité nette/besoin net de financement, 2016 8 6 4 2 0 -2 -4 -6 -8 ZA F LT U CO L CR I RU S IR L HU N DN K CA N LV A AU T M EX IS L CZ E NZ L ES T SW E DE U CH E TU R KO R LU X NO R N IT A PO L BE L NL D IS R FI P PR T GB R US A FR A JP N SV N AU OC S DE SV K ES GR C -10 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données). 12 http://dx.doi.org/10.1787/888933537254 PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 65 2. FINANCES PUBLIQUES ET ÉCONOMIE Solde structurel des administrations publiques Les charges et les recettes des administrations publiques sont très sensibles aux cycles de l’activité économique. Les recettes (en particulier fiscales) tendent à diminuer pendant les phases de récession, alors que les dépenses sont susceptibles d’augmenter en raison de la hausse du nombre de chômeurs, lesquels ont droit à l’aide sociale ou à des indemnités. Pendant les phases d’expansion, en revanche, les finances publiques se redressent du fait du gonflement des recettes fiscales et, en général, de la baisse du nombre d’allocataires sociaux. En raison de ces fluctuations des recettes et des dépenses, il est difficile, en l’absence de modifications discrétionnaires de la politique budgétaire, de savoir si celle-ci est expansionniste, neutre ou restrictive pendant une période donnée, et d’apprécier la viabilité du solde budgétaire à long terme. Ces facteurs sont pris en considération dans le calcul du solde structurel des administrations publiques ; il consiste à soustraire des recettes et des dépenses les effets cycliques mentionnés plus haut, ainsi que les éléments ponctuels. La séparation entre les composantes structurelles et cycliques du solde donne une meilleure idée de la politique budgétaire à long terme. Pour calculer le solde structurel, il faut estimer les composantes structurelles et cycliques du solde budgétaire et de la production (c’est-à-dire le PIB potentiel). En matière de comptes budgétaires, on établit une distinction entre les dépenses et les recettes structurelles, d’une part, et celles à caractère discrétionnaire, d’autre part. Pour calculer le PIB potentiel, on estime une tendance à long terme de la production, ce qui permet de distinguer production structurelle et cyclique. Bien que les soldes budgétaires structurels se soient dégradés sous l’effet de la crise financière, les déficits structurels diminuaient en 2015 dans les pays de l’OCDE. À cette date, les pays membres affichaient en moyenne un solde structurel de −2,4 % du PIB potentiel, en progrès par rapport à −6.3 % en 2009 et à −3.2 % en 2007. Comparer 2009 et 2016 donne des résultats frappants : seules la Finlande et la Hongrie ont connu une aggravation entre ces deux dates, leur déficit structurel ressortant respectivement à 0.1 % et 3 % du PIB en 2016, alors que le solde structurel s’est redressé dans tous les autres pays de l’OCDE. En 2016, le Japon avait le déficit structurel le plus lourd (4.8 %), devant les États-Unis (4.3 %) et le RoyaumeUni (4.1 %). À l’inverse, la Grèce avait l’excédent structurel le plus important (6.1 %) – surtout du fait de la baisse du PIB potentiel – devant la Corée (2.5 %), le Luxembourg (1.6 %) et l’Estonie (1.5 %). Il est plus facile de comprendre le solde structurel estimé en le rapprochant du solde budgétaire global et de la capacité nette/ du besoin net de financement, car cela permet de mesurer la différence entre la viabilité à court et à long terme des finances publiques. De 2007 à 2015, même si le déficit structurel moyen des pays de l’OCDE est passé de 3.2 % à 2.4 % du PIB, alors que le déficit budgétaire observé augmentait de 1.8 % à 2.8 % du PIB, les deux niveaux ont convergé au fur à mesure que les économies s’approchaient, après la crise, de leurs niveaux de 66 production à long terme. Ainsi, l’Irlande accusait en 2009 un déficit de 13.8 % du PIB et un déficit structurel de 8.7 % du PIB potentiel ; en 2015, le déficit observé est tombé à 2 % du PIB et le déficit structurel à 1.2 %. Comme les soldes budgétaires structurels influent davantage sur les fluctuations à long terme que sur les fluctuations à court terme, il est plus facile de les intégrer à d’autres projections macroéconomiques portant sur l’avenir proche. Selon les estimations de l’OCDE, l’assainissement budgétaire devrait s’interrompre, sachant que l’on prévoit dans la plupart des pays de l’OCDE une détérioration de la balance structurelle primaire de 2016 à 2018, qui atteindrait en moyenne −0.4 point de PIB. Pendant cette période, les plus fortes variations auraient lieu en Grèce (−2.7 p.p.), en Hongrie (−2.2 p.p.) et au Luxembourg (−2.1 p.p.). Méthodologie et définitions Les données sont tirées des Perspectives économiques de l’OCDE n° 101 (base de données). Le solde budgétaire structurel, ou solde sous-jacent, représente le solde budgétaire tel que défini dans le Système de comptabilité nationale (SCN), corrigé de deux facteurs : l’état du cycle économique (tel que mesuré par l’écart de production) et les opérations budgétaires ponctuelles. Le solde primaire est aussi ajusté de l’incidence des paiements d’intérêts au titre des engagements des administrations publiques (c’est-à-dire les paiements d’intérêts moins les revenus d’intérêts). L’écart de production mesure la différence entre le PIB réel et potentiel, ce dernier constituant une estimation du niveau de PIB qui serait atteint si l’économie fonctionnait à plein régime. Le PIB potentiel n’est pas directement observable, et les estimations sont sujettes à d’importantes marges d’erreur. Parmi les facteurs ponctuels, on peut citer les opérations budgétaires exceptionnelles et irrégulières ainsi que les écarts par rapport aux tendances en matière de transferts en capital nets. Pour en savoir plus OCDE (2017), Perspectives économiques de l’OCDE, Volume 2017 Numéro 1 : Version préliminaire, Éditions OCDE, Paris, DOI : http://dx.doi.org/10.1787/eco_outlook-v2017-1-fr. Notes relatives aux graphiques On ne dispose pas de données pour le Chili, le Mexique et la Turquie. Informations sur les données concernant Israël : http://dx.doi. org/10.1787/888932315602. PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 2. FINANCES PUBLIQUES ET ÉCONOMIE Solde structurel des administrations publiques 2.6. Solde structurel des administrations publiques en pourcentage du PIB potentiel (2007, 2009, 2015 et 2016) 2007 % 10 2009 2015 2016 5 0 -5 -10 -15 IT A NZ L CA N NO R DE U SW E ES T AU T IS L CH E KO R LU X GR C N US A SV K PO L FR A OC DE IS R HU N SV N NL D IR L BE L PR T AU S DN K CZ E LT U ES P LV A FI N JP GB R -20 Source : Perspectives économiques de l’OCDE n° 101, juin 2017. 12 http://dx.doi.org/10.1787/888933537273 2.7. Solde primaire structurel prévu des administrations publiques en pourcentage du PIB potentiel (2007, 2009, 2015 et 2016) 2007 % 10 2009 2015 2016 5 0 -5 -10 R US A SV K PO L FR A AU S OC DE NL D DN K FI N CZ E SW E IS R CA N LV A NZ L LT U IR L ES T HU N SV N BE L DE U KO R CH E LU X ES P PR T AU T IT A IS L GR C R NO JP GB N -15 Source : Perspectives économiques de l’OCDE n° 101, juin 2017. 12 http://dx.doi.org/10.1787/888933537292 2.8. Solde primaire structurel prévu des administrations publiques en pourcentage du PIB potentiel en 2017 et 2018, et variations depuis 2016 Variations de 2016 à 2018 % 8 2017 2018 6 4 2 0 -2 -4 X IS L ES T LV A DE U FI N PR T CA N PO L US A LT U CZ E IS R SW E AU T OC DE CH E BE L SV N NL D ES P DN K JP N KO R NO R IR L FR A IT A NZ L AU S GB R SV K LU N GR HU C -6 Source : Perspectives économiques de l’OCDE n° 101, juin 2017. 12 http://dx.doi.org/10.1787/888933537311 PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 67 2. FINANCES PUBLIQUES ET ÉCONOMIE Dette brute des administrations publiques La dette brute des administrations représente la totalité de leurs obligations financières externes cumulées. Les États s’endettent pour financer des dépenses supérieures à leurs recettes. À long terme, la dette souveraine peut contribuer à l’accumulation de capital physique, en particulier quand les taux d’intérêt sont bas ; mais elle peut gêner cette accumulation lorsque les taux augmentent. Si une grande partie des recettes courantes doit être affectée au service de la dette publique, la politique budgétaire se trouve contrainte. En 2015, dans les pays de l’OCDE, la dette publique brute représentait en moyenne 112 % du PIB, contre 73 % en 2007 avant la crise financière. Pendant cette période, elle a le plus progressé en Espagne (75.1 p.p.), en Slovénie (73 p.p.), au Portugal (71.1 p.p.) et en Grèce (68.8 p.p.). De 2007 à 2015, la dette n’a baissé qu’en Norvège (−16.7 p.p.), en Suisse (−5.2 p.p.) et en Israël (−2.1 p.p.). Au cours de cette période, c’est au Japon qu’elle a été la plus élevée, atteignant 221.8 % du PIB en 2015, devant la Grèce (181.6 %), l’Italie (157.5 %) et le Portugal (149.2 %). Bien qu’un haut niveau d’endettement freine l’économie, la nature des détenteurs a de l’importance : si la dette appartient à des investisseurs extérieurs, elle peut faire l’objet d’une dégradation de la notation de crédit du pays et d’une hausse des taux d’intérêt, alors que si elle est détenue par des résidents, comme au Japon, ce risque est moindre. À l’opposé, les pays de l’OCDE ayant les plus bas niveaux d’endettement public sont l’Estonie (13 %), le Chili (24.5 %), la Turquie (27.4 %) et le Luxembourg (30.7 %). En 2015, la dette brute par habitant était en moyenne de 50 245 USD à PPA ; en termes réels, elle avait augmenté à un rythme annuel de 5.9 % depuis 2007. Dans la zone OCDE, la fourchette d’endettement brut par habitant est large, les niveaux les plus élevés étant près de 30 fois supérieurs aux plus bas. On estime que la dette brute atteignait en 2015 90 345 USD à PPA au Japon, alors qu’en Estonie elle ressortait à 3 761 USD à PPA. La même année, la plus grande part de la dette brute des pays de l’OCDE se composait de titres de dette, lesquels représentaient en moyenne 83 % du total, la proportion allant de 92 % aux États-Unis à 8.7 % en Estonie. Quant aux prêts, ils représentaient en moyenne 8.9 % de la dette, mais ce pourcentage était nettement supérieur dans des pays comme la Grèce (79.2 %) et l’Estonie (67.3%). Méthodologie et définitions Les données sont tirées de la base de données des Statistiques de l’OCDE sur les comptes nationaux et de la base de données d’Eurostat sur les statistiques relatives aux finances publiques, qui sont établies conformément au Système de comptabilité nationale (SCN). La dette est un concept communément utilisé, défini comme 68 une sous-catégorie spécifique de passifs distinguée en fonction des catégories d’instruments financiers comprises ou non comprises. On définit la dette comme l’ensemble des passifs qui font obligation à un débiteur de verser à un créancier des intérêts ou du capital à une ou plusieurs dates futures. Tous les instruments de la dette sont donc des passifs, mais certains passifs, tels que les actions, les participations et les produits financiers dérivés, ne sont pas des dettes. On obtient donc le montant de la dette en additionnant les éléments de passif suivants, pour autant qu’ils figurent au bilan financier des administrations publiques : numéraire et dépôts ; titres de créance ; crédits ; et autres engagements (c’est-à-dire les systèmes d’assurance, de pensions et de garanties standards), autres comptes à payer ainsi que, dans certains cas, droits de tirage spéciaux (DTS). Dans le SCN, la plupart des instruments de la dette sont évalués au prix du marché, lorsque c’est pertinent (mais certains pays peuvent ne pas appliquer ce mode d’évaluation, notamment aux titres de créance). Le traitement des engagements des administrations publiques au titre des régimes de pensions de leurs agents diffère selon les pays, ce qui rend toute comparaison internationale difficile. Quelques pays de l’OCDE tels que l’Australie, le Canada, les États-Unis, l’Islande et la Suède (et d’autres pour lesquels les données sont extraites des Perspectives de l’économie mondiale du FMI) comptabilisent les engagements au titre des pensions des agents publics, qu’ils soient provisionnés ou non, dans la dette publique. Pour ces pays (exception faite de ceux qui ne sont pas membres de l’OCDE), on calcule un ratio d’endettement public corrigé qui fait sortir de la dette publique ces engagements de pensions non provisionnés. Des informations additionelles sont accessibles dans les Statslinks. La dette publique est ici comptabilisée sur une base brute, sans être corrigée en fonction de la valeur des actifs publics. La définition de la dette employée dans le SCN diffère de celle du Traité de Maastricht qui sert à évaluer les positions budgétaires dans l’Union européenne. Le graphique 2.12, « Taux de croissance moyen annuel, en termes réels, de la dette publique par habitant », est consultable en ligne (voir annexe F). Notes relatives aux graphiques Les notes relatives aux graphiques sont accessibles dans les Statslinks. Informations sur les données concernant Israël : http://dx.doi. org/10.1787/888932315602. PANORAMA DES ADMINISTRATIONS PUBLIQUES 2017 © OCDE 2017 2. FINANCES PUBLIQUES ET ÉCONOMIE Dette brute des administrations publiques 2.9. Dette brute des administrations publiques en pourcentage du PIB, (2007, 2009, 2015 et 2016) 2007 2009 2015 2016 Dette non ajustée (incluant les engagements non financés au titre des pensions) % 240 A US L SW CA AU N S 120 IS 160 E 240 200 160 120 80 40 0 200 80 40 BR A IN D CO L LT U ZA F CH N CR I ID N RU S JP N GR C IT A PR T BE L FR A ES P GB OC R DE US A SV N AU T CA N HU N IR L DE U NL D IS R FI N IS L PO L SV K CZ E M EX SW E DN K KO R CH E AU S LV A NO R LU X TU R CH L ES T 0 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données), statistiques d’Eurostat relatives aux finances publiques (base de données). Les données sur les autres grandes économies (sauf le Brésil) et sur le Costa Rica sont tirées des Perspectives de l’économie mondiale du FMI (avril 2017). 12 http://dx.doi.org/10.1787/888933537330 2.10. Dette brute des administrations publiques par habitant, (2009, 2015 et 2016) 2009 2015 2016 Dette non ajustée (incluant les engagements non financés au titre des pensions) USD PPA 90 000 80 000 80 000 60 000 70 000 40 000 60 000 20 000 A SW US E L IS CA S AU N 0 50 000 40 000 30 000 20 000 LT U BR A CO L ZA F CR CH I N IN D RU S ID N JP N IR L US A IT A BE OC L DE AU T FR A GR C GB R PR T CA N ES P NL D DE U IS L SV N LU X FI N IS R CH E DN K HU N SW E NO R AU S PO L CZ E SV K KO R LV A M EX TU R CH L ES T 10 000 Source : Statistiques de l’OCDE sur les comptes nationaux (base de données), statistiques d’Eurostat relatives aux finances publiques (base de données). Les données sur les autres grandes économies (sauf le Brésil) et sur le Costa Rica sont tirées des Perspectives de l’économie mondiale du FMI (avril 2017).
16,825
2017PSLEE035_1
French-Science-Pile
Open Science
Various open science
2,017
Électrodynamique quantique en cavité avec un spin unique : couplage cohérent et détecteur ultra-sensible pour la matière condensée
None
French
Spoken
6,907
10,471
Cavity quantum electrodynamics with a single spin : coherent spin-photon coupling and ultra-sensitive detector for condensed matter Mat thieu Dartiailh To cite this version: Matthieu Dartiailh. Cavity quantum electrodynamics with a single spin : coherent spin-photon coupling and ultra-sensitive detector for condensed matter. Condensed Matter [cond-mat]. Université Paris sciences et lettres, 2017. English. NNT : 2017PSLEE035. tel-01807664 HAL Id: tel-01807664 https://theses.hal.science/tel-01807664 Submitted on 5 Jun 2018 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laborato ires publics ou privés . TH ÈSE DE DOCTORAT de l’Université de recherche Paris Sciences et Lettres PSL Research University Préparée à Ecole Normale Sup érieure Cavity quantum electrodynamics with a single spin : coherent spinphoton coupling and ultra-sensitive detector for condensed matter École doctorale no 564 PHYSIQUE EN ÎLE DE FRANCE Spécialité CONDENSED MATTER PHYSICS COMPOSITION DU JURY : Mr Jean-Michel Raimond Université Paris 6, Jury member Mr Ferdinand Kuemmeth Niels-Bohr Institute , Referee Mr Thomas Ihn ETH Zurich, Referee Soutenue par Matthieu Dartiailh le 28 11 2017 Mrs Julia Meyer Université Grenoble-Alpes, Jury member Dirigée par Takis Kontos Mr Takis Kontos Ecole Normale Supérieure, Supervisor Mr Tristan Meunier Institut Néel, Jury member Mr François Mallet Université Paris 6, Invited member Mrs Audrey Cottet Ecole Normale Supérieure, Invited member Abstract This thesis work is centered around two key aspects of quantum technologies: quantum information processing and quantum sensing. It builds up onto the microwave light toolbox, developed in circuit quantum electrodynamics, to investigate the properties of mesosocopic circuits. Those circuits, here made out of carbon nanotubes, can be designed to act as quantum bits of information or as condensed matter model systems and this thesis explores both aspects. The realization of a coherent spin-photon interface illustrates the first one. The experiment relies on ferromagnetic contacts to engineer an artificial spin-orbit coupling in a double quantum dot. This coupling hybridizes the spin and the charge degree of freedom of the electron in this circuit. By embedding this circuit into a microwave cavity, whose electrical field can be coupled to the charge, we realize an artificial spin-photon interface. A second project, started during this thesis, focuses on using quantum dot circuits as model systems for studying condensed matter problems. This project consists in coupling, via a microwave cavity, a superconducting qubit, that will serve as a delicate probe, a single quantum dot circuit. Such a circuit can display several behaviors including the Kondo effect which is intrinsically a manybody effect. In this work, we present both a theoretical study of some possible outcomes of this experiment, and experimental developments. Finally, a theoretical proposition to detect the self-adjoint character of Majorana fermions using a microwave cavity, is presented. Key words: cQED, quantum dots, spin, carbon nanotube i Résumé Ce travail de thèse est centré autour de deux aspects des technologies quantiques: le calcul quantique et la mesure quantique. Il s’appuie sur la boîte à outils de la lumière micro-onde, développé en électrodynamique quantique, pour sonder des circuits mésoscopiques. Ces circuits, fabriqués ici à base de nanotubes de carbone, peuvent être conçus comme des bits quantiques ou comme des systèmes modèles de la matière condensée, et cette thèse explore les deux aspects. La réalisation d’une interface spinphoton cohérente illustre le premier. L’expérience repose sur l’utilisation de contacts ferro-magnétiques pour induire un couplage spin-orbit artificiel dans une double boîte quantique. Ce couplage hybride les degrés de liberté de charge et de spin de l’électron. En incluant ce circuit dans une cavité micro-onde, dont le champ électrique peut être couplé à la charge, nous réalisons une interface spin-photon. Un second project est centré sur l’utilisation de boites quantiques comme systèmes modèles pour l’étude de problèmes de matière condensée. Ce projet consiste à coupler, via une cavité micro-onde, un qubit supraconducteur, qui servira de sonde peu invasive, et une boîte quantique unique. Un tel circuit peut exhiber différents comportements dont l’effet Kondo, qui est un effet à N-corps. Dans ce travail, nous présentons à la fois une étude théorique, et des travaux expérimentaux. Finalement une proposition théorique pour détecter le caractère autoadjoint des fermions de Majorana en utilisant une cavité micro-onde, est présenté. Mots clés : cQED, boîte quantique, spin, nanotube de carbone Acknowledg ements This has been a long work and as one can expect I have a number of people to thank. First, I would like to thank the members of the committee. The very interesting scientific discussion we had during the defense was a real pleasure and a very nice conclusion to this work. I also thank Pr Thomas Ihn and Pr Ferdinand Kuemmeth for reading in details this lengthy manuscript, and for their useful comments on how to improve it. Je tiens ensuite à remercier Takis mon directeur de thèse, pour m’avoir accueilli dans son équipe et m’avoir donné l’opportunité de travailler dans un environnement exceptionnel. Son optimisme infini, même s’il m’a parfois tapé sur les nerfs, participe pour beaucoup de l’ambiance de l’équipe et nous permet à tous d’avancer. J’ai beaucoup appris à son contact lors de nos nombreuses discussions et je le remercie de sa disponibilité. Une autre de ses qualités est de laisser chacun s’exprimer comme il le souhaite. Son enthousiasme pour l’effort que j’ai fourni pour moderniser le système de contrôle informatique des expériences a beaucoup compter pour moi. Jérémie Viennot, qui m’a formé tant en salle blanche que sur les mesures, mérite lui aussi toute ma gratitude, je n’en serais jamais arrivé là sans lui. Un grand merci à lui. Viennent ensuite Audrey Cottet et François Mallet. Audrey est toujours disponible pour nous discuter les points théoriques de nos expériences et sa rigueur est une source d’inspiration pour moi. François qui a rejoint l’équipe au début de ma dernière année de thèse et qui a grandement participé à remonter mon moral défaillant après une fin de deuxième année compliqué. Les expériences n’ont pas toutes marchées mais je suis heureux d’avoir eu l’occasion de travailler avec lui. Je tiens aussi à remercier tous les autres thésards et post-doc de l’équipe: Laure, Matthieu Desjardins, Matthieu Baillergeau, Tino, Laurianne et Fédérico avec qui j’ai eu l’occasion de travailler. Ce fut toujours un plaisir et j’espère vous recroiser tous à l’avenir. Je dois aussi remercier les deux stagiaires que j’ai eu l’occasion d’encadrer: Filippo et Camille. Ni l’un ni l’autre n’ont vu le meilleure côté des expériences et j’en ai toujours été désolé. essaye de penser que ce n’est pas à cause ça que tous deux font désormais de la théorie. Après en avoir beaucoup entendu parler en début de thèse, j’ai eu l’occasion de travailler brièvement avec Matthieu Delbecq lorsqu’il a rejoint l’équipe et je lui souhaite beaucoup de réussite. Mais le laboratoire et le département sont bien plus grand que l’équipe HQC. Je remercie tous les membres de l’équipe d’électronique quantique Benjamin, Landry, Emmanuelle, Philippe, Danijela, Nathanael, Quentin et aussi Zaki et Raphaël qui ont désormais rejoint la HQC. Ce fut toujours un plaisir de discuter avec vous et j’y ai aussi beaucoup appris. Je n’oublie pas les autres membres du groupe de physique mésoscopique Bernard, iii Gwendal, Arthur, Quentin, Holger, Rémi, David et Erwann avec qui j’ai eu l’occasion d’interagir, toujours de façon constructive et agréable. Mais la thèse ce n’est pas que la recherche et je tiens à remercier tous les enseignants avec qui j’ai eu l’occasion de travailler: Arnaud et Frédéric pour l’IPT, Jihad, Gabriel, Tigrane et Sophie pour les TD de relativité. Mais il y a encore bien d’autres personnes sans qui ce travail n’aurai pu avoir lieu. En haut de cette liste, se trouvent les deux ingénieurs de salle blanche Michaël et José. J’ai passé bien du temps en salle blanche et même si j’aurais aimé que certaines choses marchent mieux, c’est sans aucun doutes grâce à eux que la salle blanche fonctionne. Je remercie aussi les fantastiques membres du service de cryogénie qui ont toujours fait en sorte que les expériences restent à froid (même l’été ou à Noël), un grand merci à Olivier, Aurélien et Florent. Le service électronique a permis des améli s clefs de nos montages et je tiens à remercier David, Anne et Philippe. Je remercie aussi les membres du bureau d’étude et de l’atelier: Nabil, Arnaud, Pascal, Jules et Mathieu. Enfin je remercie Anne et Olga, les deux secrétaires du laboratoire, qui fournissent un travail héroïque pour passer toutes nos commandes et géré nos déplacements, ainsi que Jean-Marc et Jéröme les directeurs du laboratoire durant ma thèse. Mais la vie ne se limite pas au laboratoire. Je tiens à remercier ma merveilleuse épouse Lise, qui m’a soutenu pendant toutes ces années et n’a pas douté de moi même quand je ne pouvais en dire autant. Puisse notre vie continuer à être aussi douce et épanoui. Je tiens aussi à remercier ma mère qui jamais ne se plaint lorsque je lui raconte tous mes ennuis de labo même si elle n’en comprends qu’une fraction. Je remercie aussi mon père qui n’est sans doute pas étranger à ma passion pour les science et qui m’a transmis une partie de sa rigueur et de ses intuitions. Et tous les membres de ma famille et de celle de Lise pour leur soutien. Je remercie aussi tous mes amis: Thomas et David nos témoins de mariage, Anil, Anna, Alexandre, Constance, Louis, Lilly, Marie, Cyrille, Yoann, François, Paul. Finalement parce j’ai tout de même beaucoup codé pendant cette thèse je tient à remercier certains développeur avec qui j’ai eu l’occasion de collaboré en particulier: • @sccolbert for developping the fantastic library enaml and for allowing me to join the adventure too • @hgrecco for PyVISA and a number of stimulating discussion • @sklam, @pitrou, @seibert for their great work on the Numba project and their patience with me when I contributed Résumé long Parmi les phénomènes dont l’explication a mené à l’émergence de la mécanique quantique, on peut citer l’effet photo-électrique. Cet effet, qui ne peut être expliqué dans une description purement ondulatoire de la lumière, força les scientifiques à reconsidérer la lumière dans une approche corpusculaire. Dans cette approche, les quantas de lumière, les photons, ne se comporte pas uniquement comme des sphères dures mais aussi comme des ondes. Cette dualité s’applique aux photons mais aussi à n’importe quel autre object en principe. Et tandis que pour les photons, la représentation classique est la représentation ondulatoire et la quantique la représentation corpusculaire, pour la plupart des objets c’est l’inverse. Un exemple est la molécule de fullerène dont il a été démontré qu’elle interférait de façon similaire à la lumière dans une expérience de fentes d’Young[1]. Il convient cependant de noter que ces propriétés ne se manifestent pas seulement dans le cas d’objets isolés mais aussi dans la matière condensée. Dans un système de matière condensée, les électrons peuvent, sous certaines conditions, présentés des comportements liés à leur nature ondulatoire. Bien entendu, la cohérence des fonctions d’onde électroniques peut être détruite de bien des manières: lors de collisions avec d’autres électrons ou avec les atomes du réseau cristallin lorsqu’ils vibrent par exemple. C’est pourquoi dans les conditions ambiantes, la description corpusculaire des électrons suffit à décrire les circuits électriques. Cependant lorsque la taille des circuits devient faible, que l’on améliore la qualité des matériaux et si la température est abaissée, la fonction d’onde électronique peut se propager sur de longues distances sans être perturbée. Les phénomènes d’interférences peuvent dès lors fortement modifier les propriétés du circuit. De tels phénomènes ne peuvent être décrit classiquement et forment les fondations du transport quantique. Parmi les phénomènes observables on peut citer: la formation d’interféromètres de type Fabry-Pérot, la localisation faible ou forte d’électrons dans certaines portions du circuit, l’anti-localisation, ou l’effet AharonovBohm. Les circuits dans lesquels se manifestent ces effets n’appartiennent ni au monde macroscopique ni réellement au monde microscopique puisqu’ils contiennent, malgré leur taille, v encore des milliards d’atomes. On les qualifie généralement de circuits mésoscopiques. Expérimentalement, il est généralement nécessaire de les refroidir à des températures proches du zéro absolu (sous 4K ou de façon équivalente −269◦ C), pour que des phénomènes non-classiques soient observables. Depuis les années 1980, ce champ de recherche s’est constamment élargi avec le développement de nouveau matériaux et la conception de nouveaux circuits. Partant de circuits composés uniquement de métaux, agencés soit en couches, fils ou poussant les systèmes à leurs limites d’un atome unique joignant deux ilots métalliques, ce champ de recherche s’est étendu aux semi-conducteurs, aux oxydes et aux molécules. Dans chaque cas, les propriétés du circuit sont le résultat non seulement des propriétés intrinsèques des matériaux mais aussi de la manière dont ils sont combinés. L’utilisation d’électrodes ferromagnétiques ou supraconductrices permet, au travers de l’effet de proximité, d’induire ce type de propriétés dans des matériaux qui ne les possèdent pas. Ce type de combinaison a donné naissance aux champs de la spintronique et de la supraconductivité mésoscopique. Dans ce travail de thèse, nous nous intéressons à une sous classe particulière de circuits: les boites quantiques [2]. Dans ce type de structure, toutes les dimensions spatiales (hauteur, largeur, longueur) sont réduites de façon à ce que le vecteur d’onde de la fonction d’onde électronique soit quantifié dans toutes les directions. Une telle quantification conduit à l’existence d’un ensemble discret d’état autorisé similaire à ceux d’un atome. Ces boîtes à électrons peuvent être réalisées à partir d’objets de plus haute dimension, telle qu’un fil unidimensionnel ou un gas électronique piégé dans un plan, dès lors que les électrons peuvent être confinés en utilisant, par exemple, des contacts métalliques ou des champs électriques. Dans le cadre de cette thèse, nous utilisons des nanotubes de carbone (CNT) qui sont des conducteurs unidimensionnels. En les contactant à des électrodes métalliques, les électrons sont confinés dans la dernière dimension ce qui conduit à la formation de boîtes quantiques [3]. Comparé aux atomes "naturels", dont les propriétés sont fixées, les propriétés ces structures peuvent être ajusté sur de large gammes grâce à des leviers macroscopiques. L’application de potentiels électrostatiques est un de ces leviers. Un grand nombre de phénomènes de transport quantique peuvent être observés dans les boîtes quantiques dont l’effet Kondo qui résulte de la formation d’un état intriqué à N-corps. Cet effet résulte de l’interaction du spin d’un électron piégé dans la boîte quantique avec les électrons de conduction des électrodes, et modélise ce qui peut se passer dans un métal au voisinage d’une impureté magnétique. De tels atomes artificiels pourraient trouver des applications dans le cadre du traitement quantique de l’information. En particulier, le spin de l’électron est une système à deux niveaux naturel qui peut être utilisé comme qubit [4]. De plus, son faible couplage naturel à son environnement permet d’espérer de long temps de cohérence qui sont clefs dans le cadre de l’information quantique, comme discuté dans le chapitre 1. Historiquement, l’information quantique expérimental a émergé à la fin des années 1990 dans les communautés de la résonance magnétique nucléaire [5] et de l’optique atomique et moléculaire. En particulier, le champ de l’électrodynamique quantique en cavité (QED), qui s’intéresse à l’interaction lumière-matière à l’échelle la plus élémentaire en couplant un atome unique à un unique photon, a développé un grand nombre d’outils permettant de contrôler et de mesurer de petits systèmes quantiques[6]. Le développement d’atomes artificiels dans la matière condensée, à base de circuits supraconducteurs, a permis de transférer ces idées aux circuits [7]. Ce nouveau champ est dénommé électrodynamique quantique sur circuit (cQED). Le champ, auquel ce travail de thèse appartient, est le champ voisin de l’électrodynamique quantique mésoscopique dans laquelle le circuit supraconducteur, utilisé comme atome artificiel, est remplacé par un circuit mésoscopique tel qu’un contact atomique [8] ou une boîte quantique [9, 10, 11, 12, 13]. L’émergence de ce champ a, dans un premier temps, été motivé par la possibilité de coupler des qubits distants via une cavité comme démontré en cQED [14, 15]. Jusqu’à très récemment [16], les qubits réalisés dans des circuits de boîtes quantiques ne pouvaient être couplé de manière fiable entre eux [17], et donc la perspective de coupler deux systèmes distant via une cavité semblait très intéressante. Cependant, cette possibilité n’était qu’une des multiples possibilités qui ont émergé avec ce nouveau champ. Par exemple, la possibilité de réaliser un MASER, dans lequel le circuit de boîtes quantiques joue le rôle de milieu amplificateur, avait déjà été envisag en 2004 [18]. Même si la réalisation du couplage de deux systèmes distants reste un but à long terme, un MASER a été réalisé récemment [19]. De part la double nature des circuits de boîtes quantiques, atomes artificiels d’une part et systèmes modèles pour la matière condensée, ce champ est plus large que le traitement quantique de l’information. En particulier, il est possible de transposer les techniques développé dans le cadre de la cQED et de les adapter pour réaliser des mesures de haute précision sur des systèmes modèles de la matière condensée. Ce travail de thèse s’efforce d’illustrer cette double nature du champ. Le manuscrit est divisé en six chapitres. Le premier est une brève introduction des technologies quantiques et de la manière dont elles ont inspirés les travaux présentés dans cette thèse. Ce chapitre est divisé en deux parties. La première traite de l’encodage de l’information quantique dans un bit d’information. Elle traite notamment des phénomènes de relaxation et de de décohérence, et introduit deux plateformes qui ont servi à la réalisation de qubit: les circuits supraconducteurs et les spin-qubits. L’objectif de ce chapitre étant principalement introductif, seul les principes de fonctionnement de base de ces systèmes sont abordés. Toujours dans la même partie, l’interaction de qubits avec un mode bosonique, pouvant servir de canal de communication entre deux qubits, est introduite, à nouveau sur des considérations assez générale. La seconde partie de ce premier chapitre traite de l’utilisation de systèmes quantiques comme sonde de précision. Elle discute dans un premier temps l’utilisation des photons piégés dans une cavité de grande finesse, avant de discuter le cas des systèmes à deux niveaux qui est illustré sur l’exemple du centre NV− du diamant. Ces différentes approches peuvent être transposé à la situation expérimentale du chapitre 5. Le second chapitre se concentre plus directement sur les systèmes utilisés dans le cadre de cette thèse et est divisé en deux parties. La première traite des circuits mésoscopiques utilisés. Cette partie commence par présenter les propriétés des nanotubes de carbone à partir desquels sont réalisées les boîtes quantiques utilisées dans le cadre de ce travail de thèse. La physique des boîtes quantiques est ensuite discutée. On s’intéresse tout d’abord aux boîtes quantiques uniques qui seront utilisés dans le chapitre 5 et notamment à leur susceptibilité de charge. Deux principaux régimes sont discutés: d’une part le régime de blocage de Coulomb, dans lequel la susceptibilité peut-être calculée analytiquement, et le régime Kondo pour lequel des techniques numériques sont utilisées. La physique des doubles boîtes quantiques est discutée dans la section suivante et sert de base au chapitre 4. Finalement, cette partie se conclue sur la présentation du transmon, un qubit supraconducteur, qui est utilisé dans le cadre du chapitre 5. La seconde partie discute les propriétés des résonateurs/cavités supraconductrices utilisées comme boîtes à photons, la manière dont on peut y coupler les circuits mésoscopiques présentés précédemment ainsi que les différents régimes de couplage qui peuvent en résulter. Le troisième chapitre est dédié aux techniques expérimentales mises en œuvre dans le cadre de ce travail. La conception des échantillons est tout d’abord discutée et notamment l’apport des outils de simulations numériques. On montre notamment comment la structuration du champ électrique micro-onde à des échelles bien inférieures à la longueur d’onde peut permettre d’augmenter le couplage entre les photons de la cavité et les circuits mésoscopique (Figure 1). La fabrication des échantillons, les techniques de mesure nécessaire à leur caractérisation, et les outils d’interfaçage informatique mis en œuvre pour automatiser les mesures sont ensuite discuter. Les trois derniers chapitres se concentrent chacun sur un aspect particulier de ce travail de thèse. $'a) b) x Electric potential (a.u.) y c) Shield S S D D Shield Un-shielded Shielded Electrode location 2.5 2.0 1.5 1.0 S 0.5 D 0.0 1.5 1.0 0.5 0.0 0.5 Distance ( m) 1.0 1.5 Figure 1: Ecrantage d’une boîte quantique unique: a), b) Champ électrique simulé (composante selon x) d’un mode à 7.5 GHz (longueur d’onde ∼ 1 cm) dans deux géométries a) non-écranté b) écranté. Les régions grisé correspondent à l’emplacement d’électrodes métalliques (100 nm de large pour la plus fine). L’échelle de couleur est la même pour les deux tracés mais est tronquée pour aider le lecteur à identifier les différences dans la géométrie du champ. c) Tracé du potentiel électrique (intégrale du champ) le long de la ligne pointillé de la figure a). L’origine du potentiel est prise à gauche du tracé, ce qui n’est pas exact comme le montre le fait que le potentiel est non-nul pour les grandes valeurs de x. On peut noter une augmentation du maximum du potentiel de l’ordre de 30% dans la situation écrantée. & Couplage spin-photon cohérent dans une architecture de cQED Le quatrième chapitre présente une expérience dont le but était d’atteindre le régime de couplage fort entre le spin d’un électron unique piégé dans un circuit mésoscopique et les photons piégés dans une cavité. L’architecture de circuit que nous avons utilisé pour réaliser cette expérience a été proposé en 2010 dans [20]. Cette architecture, % présenté dans la figure 2, repose sur une double boîte quantique contactée à des électrodes ferromagnétiques. ' a) $ b) Figure 2: Couplage spin-orbite artificiel dans une double boîte qu na tique à base de CNT : − On considère un électron de spin → s piégé dans une double boîte quantique. On représente sa densité de probabilité de présence |ψ|2 en vert. Chaque boîte − → est connectée à une électrode ferromagnétique, dont l’aimantation est notée M. L’aimantation induit une polarisation de spin de la fonction d’onde. Cependant, comme les aimantations des électrodes ne sont colinéaires, les axes de quantification dans chaque boîte ne le sont pas non plus, comme illustré en a). Ainsi en induisant des oscillations de l’électron entre les deux boîtes grâce à un champ électrique alternatif, l’électron voit un champ magnétique AC effectif qui est orthogonal à son axe de quantification. Ce champ effectif peut-être utilisé pour contrôler le spin. L’axe de quantification est défini par les champs induits par les électrodes et par le champ magnétique extérieur appliqué. & Les aimantations des électrodes ne sont pas colinéaires si bien que les axes de quantification du spin de l’électron dans chaque boîte ne sont pas colinéaires. Lorsque l’électron passe d’une boîte à l’autre, le spin tourne ce qui peux être vu comme le résultat d’un couplage spin-orbit. Ce couplage permet de coupler le degré de liberté orbital de l’électron et son spin. Le degré de liberté orbital peut être couplé au photons piégés dans la cavité, ce qui permet de au final d’obtenir un couplage spin-photon. Grâce à l’expérience acquise dans le laboratoire lors d’expériences précédentes [13], nous avons inclut ce circuit dans une cavité micro-onde, cf figure 3. Dans ce système nous avons démontré l’existence de transitions hybrides mêlant le degré de liberté orbital et l’état de spin (figure 4) ainsi qu’un couplage cohérent entre % $'a) b) Double quantum dot c) S SWNT Stamp print Ni Pd Vg1 45° Vgt VgRes Gnd Resonator Vg2 DC lines D 1 μm 1 μm PdN i 20 μm Gnd Figure 3: Échantillon: a Image (microscope optique) de l’échantillon étudié centré sur la double boîte quantique. b Image de microscopie à force atomique de l’échantillon sur laquelle le CNT apparaît en fausses couleurs. c Image de microscopie à force magnétique. L’aimantation des électrodes ferromagnétiques apparaît dans le damier blanc et noir où les zones blanches et noires correspondent aux pôles Nord et Sud de l’aimantation. & % les photons micro-ondes et une transition associée à un changement de l’état du spin électronique [21]. Le couplage ainsi obtenu est de l’ordre du MHz, ce qui est un ordre de grandeur inférieur au couplage aux états orbitaux mais 5 ordre de grandeur supérieur au couplage magnétique direct que nous pourrions obtenir dans ce système. $'0.4 (deg) 0.4 0 0 0 ε (mV) ε (mV) 20 0 -0.4 −20 -0.4 -0.4 -100 0 Bext (mT) 100 -100 0 Bext (mT) 100 Figure 4: Dispersion des états du système fonction de la grille et du champ magnétique externe B: La carte de la transmission de la cavité (figure de droite) présente trois creux correspondants à la mise en résonance de trois transitions avec la cavité. Ces trois transitions dépendent à la fois de la grille et du champ magnétique, ce qui montre leur nature hybride. & Finalement ce chapitre discute l’influence de la parité du nombre d’électron dans la double boîte sur le spectre du système. % Sonder les dynamiques d’une boîte quantique à l’aide d’un transmon : Le cinquième chapitre explore la possibilité d’utiliser un qubit supraconducteur (un transmon) comme une sonde de grande sensibilité des propriétés d’une boîte quantique. Il se concentre sur les boîtes quantiques uniques qui peuvent être utilisé comme systèmes modèles pour la matière condensée. Dans de précédents expériences menés dans le laboratoire [22, 23], l’utilisation d’une cavité micro-onde a été cruciale pour révéler certaines propriétés de ces circuits. L’addition d’un transmon à de tels expériences ouvre plusieurs nouvelles perspectives. Tout d’abord le transmon pourrait être utilisé pour analyser le champ photonique de la cavité et mesurer, pour la première fois de façon quantitative, le couplage entre le champ photonique et la boîte quantique. Dans les expériences précédemment citées, seul le produit du couplage par le nombre de photon dans la cavité a été mesuré et le nombre de photons ne pouvait être mesuré avec précision. Une autre perspective, exploré de manière théorique dans une première partie, consiste à utiliser transmon comme spectromètre, ce qui peut fournir de nouvelles informations sur la dynamique interne de ces circuits dans le régime de blocage de Coulomb et dans le régime Kondo. $'2 L R 1 S d D Figure 5: Schéma de principe de l’expérience discuté dans le chapitre 5: Une boîte quantique et un transmon (oscillateur anharmonique à base de ciruits supra) sont tous les deux couplés à un unique mode d’une cavité micro-onde leur permettant d’interagir. & La partie expérimentale ne comporte que des résultats préliminaires, notamment la caractérisation d’un des premiers transmon réalisé. L’absence de résultats plus significatifs tient aux difficultés rencontrées lors de la fabrications des échantillons. % Probing Majorana fermions using a cavity: Le sixième et dernier chapitre est dédié à un travail théorique centré sur l’étude des circuits topologiques hybrides grâce aux photons d’une cavité micro-onde [24]. Les circuits hybrides combinant des nano-conducteurs dotés d’un fort couplage spin-orbit contactés à des électrodes supra-conductrices ont été proposés comme base pour obtenir des fermions de Majorana [25, 26]. Jusqu’à présent, ces structures ont été principalement étudié via des mesures de transport DC qui révèle la densité d’état de ces circuits [27, 28, 29, 30, 31, 32]. Dans ce travail nous proposons un protocole permettant de mettre en évidence le caractère auto-adjoint des fermions de Majorana reposant sur la mesure couplé des propriétés de transport du système et de celles d’une cavité micro-onde à laquelle le système est couplé. Une particularité de ce travail est qu’il traite l’intégralité des effets du contact supraconducteur, et notamment la densité d’état résiduelle sous le gap supra souvent observé dans les réalisations expérimentales. La signature du caractère auto-adjoint de la paire d’état de Majorana dont chacun des membres est localisé à une des extrémités du fil provient de leur absence de couplage au champ photonique. Le protocole proposé permet de déterminer indépendamment de toute théorie les énergies auxquelles une signature d’un couplage entre la photons et les états de Majorana serait attendu. Il permet de plus de vérifier que l’absence de signature n’est pas le fruit de l’absence de couplage entre le circuit et les photons en utilisant la signature d’une transition entre les états de Majorana et la densité sous le gap du supraconducteur. $ a) ω0 /∆ 1.5 case A 1 1 10-1 0.5 10-2 ε 00 2 b) 4 Q ω0 4 P 1 2 Im[χ(ω0)] /1000ωg 8 10-3 10 1 2 3 4 d) 3 E z /∆ c) E z /∆ 6 Im[χ(ω0)]/ωg'3 2 1 0 0 ω0 = 0.2 ω 0 = 0.1 P ω 0 = 0.05 E z /∆ Q 4 Figure 6: Dissipation induite par le circuit hybride fonction du champ magnétique externe appliqué EZ et de l’énergie considérée ω0 : La figure a) présente les résultats d’une simulation menée sur une chaine unidimensionnelle discrète avec couplage spin orbite et couplage à un contact supraconducteur. On peut y discerner un grand nombre de strcutures qui sont schématisées dan la figure b). La figure c) présentent trois coupes prises à trois énergies différentes de la structure 1. Les marqueurs utilisées correspondent à ceux présents sur le coté gauche del afigure a). La figure d) décrit la nature des transitions associées à chacune des structures de la figure b). 1 Cette structure correspond à une transition entre la densité sous le gap et les états de Majorana. Elle apparaît quand la fréquence de la cavité est égale à différence en énergie entre les deux états de Majorana ω0 = 2 Cette structure correspond à une transition entre l’état de Majorana à basse énergie et un état d’Andreev. 3 Cette structure correspond à un processus implicant à la fois les états de Majorana et la densité sous le gap. 4 Cette structure correspond à des transitions entre états d’Andreev. P and Q Ces structures, qui sont absentes des résultats de simulations, correspondrait à des transitions entre les deux états de Majorana ou deux états non-dégénérés d’Andreev. Le ur absence prouve le caractère auto-adjoint des états de Majorana. & Cette figure est tirée de [24] % Contents Page Abstract i Acknowledgements iii Résumé long v Abbreviations xix Introduction 1 1 Quantum technologies 1.1 Quantum information encoding : 1.1.1 Quantum bits :...... 1.1.2 Bosonic mode interface :. 1.2 Sensing for mesoscopic systems : 1.2.1 Cavity based sensing :.. 1.2.2 Pseudo-spin based sensing. :. 7 8 10 24 26 27 29 2 Mesoscopic circuit quantum electrodynamics 2.1 Mesoscopic circuits :............... 2.1.1 Quantum dots :.............. 2.1.2 Superconducting circuits :........ 2.2 Hybrid systems :................. 2.2.1 Microwave cavities :........... 2.2.2 Coupling mechanisms :.......... 2.2.3 Atomic limit :............... 2.2.4 Open systems :.............. 33 33 34 59 65 66 71 76 84 3 Experimental techniques 3.1 Sample design :........ 3.1.1 Substrate choice :... 3.1.2 Cavity design :.... 3.1.3 Transmon design :.. 3.1.4 Dot coupling :.... 3.1.5 Chip optimization :. 3.2 Sample fabrication :..... 3.2.1 Fabrication techniques. 89 89 90 90 95 96 99 101 102. :. xv. Contents 3.3 3.4 3.2.2 Cavity fabrication :........... 3.2.3 Transmon fabrication :......... 3.2.4 Dots fabrication :............ Measurements :................. 3.3.1 Sample mounting :........... 3.3.2 Fridge wiring and operation :..... 3.3.3 DC measurements :.......... 3.3.4 AC measurements :........... Computer interface:.............. 3.4.1 Ecpy: experiment control in python. 3.4.2 I3py: instrument interfacing in python 3.4.3 Future directions............ xvi. 4 Coherent spin-photon coupling in a cQED architecture: 4.1 Principle of the ferro-magnetic spin qubit:......... 4.1.1 Ferromagnetic contact induced Zeeman splitting:. 4.1.2 System properties:.................. 4.2 Sample:............................ 4.2.1 Geometry and fabrication:.............. 4.2.2 Sample tuning:.............. ...... 4.3 Coherent spin-photon interface:............... 4.3.1 Levels dispersion:... ................ 4.3.2 Approaching the strong coupling:.......... 4.3.3 Hysteretic behavior:................. 4.4 Impact of the occupation parity:.............. 4.4.1 Odd areas:...................... 4.4.2 Even areas:...................... 4.5 Perspectives:......................... 4.5.1 Microwave spectroscopy:............... 4.5.2 Increasing the coupling, reducing the noise:.... 4.5.3 Ultra-clean nanotubes:................ 5 Probing single dot dynamics using a transmon qubit 5.1 Theoretical description:.................. 5.1.1 System effective Hamiltonian:........... 5.1.2 Dot induced static frequency shift:........ 5.1.3 Sequential tunneling approach:.......... 5.1.4 Single dot as an effective bath:.... ...... 5.2 Sample fabrication and characterization: ......... 5.2.1 Sample design:................... 5.2.2 Sample fabrication:................. 5.2.3 Sample characterization:.............. 106 107 110 117 117 119 121 121 128 129 131 132. 135. 136. 137. 139. 141. 142. 144. 147. 147. 152. 155. 160. 160. 163. 164. 165. 167. 168. 171. 172. 173. 175. 176. 179. 185. 186. 186. 188 6 Probing Majorana fermions using a cavity: 193 6.1 Majorana fermions in condensed matter:................... 194 6.1.1 Majorana fermion properties:..................... 194 6.1.2 Experimental realizations:....................... 199 Contents 6.2 Direct 6.2.1 6.2.2 6.2.3 6.2.4 xvii cavity detection of Majorana pairs:... Majorana fermions coupling to the light: Proximized nanowire model:....... Numerical techniques:.......... Self-adjoint character signature:..... Conclusion and perspectives A Sample fabrication recipes: A.1 Stamps:.......... A.2 Sample preparation:... A.3 Stamping:......... A.4 Fine lithography:..... 204 204 207 212 213 221 . 223. 223. 227. 231. 232 B Derivation of the effective Hamiltonian for the SD-transmon system: 237 B.1 Closed system Hamiltonian :......................... 238 C Master equation for the transmon subject to the dot noise: 243 D Characterization of the transmon: 247 Bibliography 253 Abbreviations QED Quantum electrodynamics cQED Circuit quantum electrodynamics JJ Josephson junction SIS Superconductor-Insulator-Superconductor CNT Carbon nanotube SWCNT Single wall carbon nanotube SD Single quantum dot DQD Double quantum dot mQED Mesoscopic quantum electrodynamics NV Nitrogen vacancy SOC Spin-orbit coupling 2DEG 2-dimensional electron gas SQUID Superconducting quantum interference device B/AB Bonding/Anti-bonding CPW Coplanar wave guide PCB Printed circuit board SEM Scanning electron microscope MIBK Methyl isobutyl ketone IPA Iso-propanol CVD Chemical vapor deposition AWG Arbitrary waveform generator DOS Density of state MBS Majorana bound states ABS Andreev bound states xix Introduction Among the phenomena whose explanation ultimately led to the emergence of quantum mechanics, one can cite the photo-electric effect. This effect, which cannot be explained in a purely ondulatory description of the light, forced people to reconsider that light may be made out of quanta. These quanta, the photons, behave not only as hard particles but also as waves. This duality applies to photons in quantum mechanics but in principle also to any object. And while for photons, the classical representation is the wavy one, and the quantum representation the particle one, for many other objects it goes the other way around. One can think of large objects such as molecules like fullerene that were demonstrated to interfere similarly to light in Young slits experiments [1]. But actually those properties do not manifest only for isolated objects but also in condensed matter systems. In condensed matter systems, electrons can under certain conditions exhibit behaviors that are linked to their wavy nature. Of course, the coherence of the electronic wave can be destroyed in many ways: through collisions with others electrons or with atoms vibrating in the crystal lattice. This is why under ambient conditions, we can perfectly describe electric circuits using a corpuscular representation of the electrons. However when the size of the circuits becomes very small, the quality of the material improves and if the temperature is reduced, the electronic wave can propagate without being disturbed over large distances, resulting in interference between different waves. Such phenomena cannot be described classically and are at the foundations of the field of quantum transport in which one can observe for example: electronic Fabry-Perot interferometers, weak or strong localization of the electrons in particular areas, or the Aharonov-Bohm effect. Because the circuits in which those effects manifest themselves belong neither to the macroscopic world nor to the truly microscopic world as they still contain billions of 1 Introduction 2 atoms, they are often referred to as mesoscopic circuits. Experimentally, they usually need to be cooled down to cryogenic temperatures (below 4K or equivalently below −269◦ C) to display a truly non-classical behavior. Since the 1980s, this field has constantly broadened as new materials were developed and new circuits have been designed. Starting from purely metallic circuits, either in layers, wires, or pushing the systems to their limits and limiting the contact between two islands to a single atom, the field grew to include semi-conductors, oxides and molecules. In each case, the properties of the circuit are tailored, not only by the intrinsic properties of materials, but also by how they are combined. Using ferromagnetic contacts or superconducting contacts can induce those properties in materials lacking them through proximity effects, which gave birth to the fields of spintronics and mesoscopic superconductivity. In this thesis, we are interested in a particular subclass of circuits called quantum dot circuits [2]. In such structures, all the spatial dimensions (height, width, length) are reduced such that the allowed wave vector for the electronic wavefunction is quantized along all directions. This means that those structures exhibit a discrete spectrum similar to the one of an atom. These electron boxes can be realized starting from higherdimensional objects, provided that the electrons can be ultimately confined using either metallic electrodes or electrostatic fields. For example, in this work, we use carbon nanotubes which are naturally unidimensional conductors. By contacting them to metallic electrodes, we confine the electrons in the last available dimension hence fabricating our quantum dots circuits [3]. Compared to natural atoms, whose properties are fixed, the properties of those structures can be tuned over large ranges using macroscopic knobs, such as DC voltages. Quantum dot circuits display most of the quantum transport phenomena mentioned above. An important effect, which can be studied in quantum dots, is the Kondo effect which reveals many-body interactions. The spin of an electron confined in the quantum dot is interacting with the many electron spins of the contacting electrodes, which models the presence of a magnetic impurity in a metal. Such artificial atoms appear as a potential resource for quantum information processing. In particular, the spin of a trapped electron is a natural two-level system that can be used as a qubit [4]. Furthermore, its natural weak coupling to its environment promises Introduction 3 long coherence times which is a key property in the perspective of quantum information, as discussed in chapter 1. Historically, experimental quantum information emerged in the late 90’s in the Nuclear Magnetic Resonance (NMR) [5] and Atomic Molecular and Optical (AMO) physics communities. In particular, the field of cavity quantum electrodynamic (QED), which studies the light matter interaction at the most elementary level by coupling a single atom to a single mode of the electromagnetic field, developed a large toolox to control and measure small quantum systems [6]. The development of artificial two-level systems in condensed matter, based on superconducting circuits, has allowed to transfer these ideas to circuits [7]. This new field was named circuit QED (cQED). The field, into which this thesis work falls, is the related field of mesoscopic QED, in which the superconducting circuit used as an artificial atom is replaced by a mesoscopic circuit such as an atomic contact [8] or a quantum dot circuit [9, 10, 11, 12, 13]. The emergence of this field was at first driven by the possibility to couple distant qubits through the cavity as demonstrated in cQED [14, 15]. Up to very recently [16], solid state qubits based on quantum dot circuits could not achieve in a reliable fashion a coupling between two qubits [17], the perspective of long distance coupling through a microwave cavity hence appeared promising. However, this was only one among several directions that emerged with this new field. For instance, the realization of MASERs had already been envisionned in 2004[18]. Even though the coupling of two distant qubits remains a long term goal, a MASER has been demonstrated recently [19]. Thanks to the dual nature of quantum dot circuits, artificial atoms on one side and condensed matter model systems on the other, this field encompasses more subjects than quantum information processing. In particular, one can transpose techniques developed in the context of cQED and adapt them to high sensitivity measurements of condensed matter model systems. This thesis work will try at best to illustrate this dual nature of the field. This manuscript is divided into six chapters. The first one serves as a brief introduction to quantum technologies and how they have inspired this thesis. It does not go into the details of the discussed systems but rather provides broad overviews. The second one focuses more directly on the devices used in this thesis, namely quantum dots, transmon qubits, superconducting cavities, and their multiple regimes of interactions. The third Introduction 4 chapter is dedicated to the experimental techniques, ranging from the design of the samples to their fabrication and the measurement techniques required to characterize them. The three remaining chapters focus each on one particular topic of this thesis work and are summarized below. Coherent spin-photon coupling in a cQED architecture The fourth chapter discusses an experiment whose goal was to achieve strong coupling between a single electronic spin trapped in a mesoscopic circuit and the photonic field of a microwave cavity. The spin qubit we used, has been proposed in [20] and is based on a double quantum dot contacted by ferro-magnetic electrodes. Building upon a previous experiment carried out in our lab [13], we embedded it into a microwave cavity and demonstrated a coherent coupling between spin-full transitions and the microwave photons trapped inside the cavity [21]. We have further studied the role of parity of the number of electrons inside the double quantum dot and showed that it can strongly affect the system spectrum.
29,137
43/hal.archives-ouvertes.fr-hal-03443409-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
2,064
3,177
GÉRER DE MANIÈRE INTÉGRÉE La lutte contre les pestes végétales sur le domaine forestier à La Réunion Pierre Sigala PRÉSENTATION L'île de La Réunion est particulièrement sensible aux invasions biologiques, animales et végétales. Les raisons biologiques sont fondamentales : isolée pendant des millénaires (trois millions d'années), cette île n'a pas été colonisée d'emblée par de nombreuses espèces ; seules quelquesunes ont eu la possibilité de venir s'y installer, amenées par des courants aériens, marins ou encore par des oiseaux. Avant l'arrivée de l'homme, la flore de La Réunion était originale mais fragile et relativement pauvre. Exceptionnellement protégée, La Réunion ne fut découverte et colonisée par l'homme qu'à partir du XVIIe siècle. Depuis cette date, les introductions ont été nombreuses et aucun équilibre ne s'est établi entre les milieux indigènes et les plantes envahissantes, des invasions se déroulant encore sous nos yeux. Aujourd'hui cependant, il est communément admis que 30 % de la surface de l'île, soit 60 000 ha, sont encore couverts de formations primaires. La flore sauvage de La Réunion est composée de près de 650 plantes à fleurs indigènes ou endémiques et de plus de 450 espèces exotiques, amenées par l'homme depuis le XVIIe siècle. PESTES VÉGÉTALES Parmi les végétaux exotiques (amenés par l'homme d'autres parties du monde), certains sont devenus envahissants à La Réunion à un point tel qu'ils font progressivement disparaître la végétation autochtone et qu'ils forment de grandes taches monospécifiques. Ces espèces sont qualifiées de pestes végétales (Perrier de la Bathie, 1929 ; Lavergne, 1978). Processus d'invasion Ces espèces exotiques envahissantes ont plusieurs qualités redoutables : - elles produisent en général beaucoup de fruits, très largement disséminés ; - elles forment des massifs monospécifiques qui ralentissent ou bloquent les processus de sylvigénèse ; - elles ne souffrent ni de parasites, ni de pathogènes. Leur colonisation se fait principalement à la faveur d'une ouverture du milieu, qu'elle soit artificielle ou naturelle ; elle peut aussi concerner la strate herbacée du sous-bois. Leur dissémination est assurée par les oiseaux, les petits mammifères ou plus rarement par le vent. GESTION SUR LE DOMAINE GÉRÉ PAR L'ONF La stratégie Occupant 100 000 ha situés dans les zones montagneuses, l'Office national des Forêts (ONF) est de loin le plus important gestionnaire des milieux naturels de l'île. En accord avec les collectivités locales (principalement la Région Réunion) et les partenaires protecteurs de la Nature, la stratégie régionale de l'ONF se décline en plusieurs actions découlant des conseils de Mac Donald (1989), expert des invasions biologiques. Dans un premier temps, les zones les plus intéressantes d'un point de vue patrimonial qu'il convenait de préserver ont été déterminées. Les travaux de mise en valeur forestière y ont été purement et simplement arrêtés. Ces zones font l'objet de classement en réserves et couvrent près de 20 000 ha en l'an 2000. Dans un second temps, une tentative d'inventaire des espèces envahissantes sur lesquelles devait porter la lutte a été dressée (tableau I, ci-dessous). tableau I Les principales espèces envahissantes Espèces Origine Milieu envahi Fuchsia magellanica Fuchsia de Magellan Forêt d'altitude Hedychium ssp. Inde Longose Forêt de moyenne altitude et d'altitude Hiptage benghalensis Inde Liane Papillon Forêt à tendance sèche Ligustrum walkeri Sri Lanka Troène de Ceylan Psidium cattleianum Goyavier Forêt humide Rubus alceifolius Vigne marronne Forêt humide Stroblianthes sp. Les grosses taches colonisées par ces espèces ont été repérées et ont fait l'objet, lorsqu'elles étaient accessibles, d'une destruction puis, par des techniques sylvicoles, la croissance d'essences forestières indigènes a été favorisée. Cette stratégie a été mise en place à partir des années 1985 et n'a pas été remise en cause depuis. Les travaux Ces actions sont financées sur des programmes du Conseil régional de La Réunion et de l'Union européenne. Les surfaces concernées par ces travaux sont assez difficiles à estimer car elles dépendent de l'espèce elle-même et de son degré d'abondance. Une peste végétale peut en effet occuper une surface homogène ou se présenter sous forme de taches disséminées. Pour la seule année 1997, les surfaces traitées s'établissaient autour de 80 ha. Parallèlement au programme forestier sensu stricto, durant 4 ans, le développement des programmes sociaux d'insertion professionnelle a aussi essentiellement permis de lutter contre les espèces envahissantes. Les travaux correspondant ont touché plus de 250 ha en 1995-96, puis un peu moins en 1997-98. La lutte chimique et mécanique : modalités techniques et phyto cides utilisés La destruction des espèces exotiques envahissantes nécessite l'utilisation de produits chimiques. Actuellement, trois types de produits sont couramment utilisés, tous homologués pour l'usage en forêt. • Le glyphosate Les herbacées sont sensibles aux traitements foliaires alors que certaines plantes ligneuses sont sensibles aux traitements sur souches ou en injection. Le glyphosate est inactivé immédiatement sur le sol par adsorption et se décompose relativement rapidement avec une demi-vie de 60 jours. À La Ré , ce produit est assez souvent utilisé car il paraît peu nocif, relativement bon marché et assez efficace. Il convient particulièrement aux entretiens de plantations pour éviter aux plants forestiers une concurrence trop forte. • Le triclopyr Les herbes dicotylédones et les plantes ligneuses sont sensibles à ce produit alors que les graminées ne le sont pas. Légèrement irritant pour la peau et les yeux, il est faiblement dangereux pour les humains et dangereux pour les poissons. Il est utilisé en forêt, soit sur souches fraîches en mélange avec du gasole pour favoriser l'imprégnation, soit en traitement ponctuel sur certaines espèces arbustives particulièrement vivaces comme les fuchsias. • Le fosamine ammonium C'est un régulateur de croissance qui inhibe fortement le développement des bourgeons. Il est utilisé exclusivement à La Réunion contre la Vigne marronne, sur laquelle son action est assez efficace moyennant une application rigoureuse ; il agit alors comme un désherbant sélectif. Reconstitution écologique Afin de mieux estimer les résultats, il convient de séparer les types de milieux concernés : • Les forêts de basse altitude (Sud et Est de l'île) Les formations primaires de basse altitude sont appelées communément "forêt de Bois de couleurs des Bas". Elles font partie des milieux les plus menacés de La Réunion. Dans le cas qui nous occupe, soit les pestes végétales (Vigne marronne, Goyavier, Jambrosade) forment des poches au sein de massifs assez bien conservés, soit la formation primaire a disparu pour laisser place à une formation dominée par le Jambrosade. Dans ces milieux, sur les sols fertiles, la lutte contre les espèces envahissantes est assez efficace. Bien qu'onéreuse, l'installation, après traitement mécanique et chimique des pestes, de forêts composées d'essences indigènes se fait sans problème technique. Sur les sols les plus pauvres, coulées de laves récentes ou sols très acides de l'Est de l'île, la forêt n'arrive pas à se constituer et le milieu est envahi aussitôt. Ces travaux de reconstitution écologique en zone humide ont fait l'objet d'une normalisation (Arnould, 1998). Le phytocide utilisé est le triclopyr. La norme de travaux détaille les opérations effectuées lors de l'installation du peuplement, y compris les indispensables dégagements de plantation pendant les six années suivantes, ce qui donne un coût total de 46 000 € HT par hectare en situation moyenne. • Les forêts de moyenne altitude (Makes, Hauts de l'Ouest) et d'altitude (Notre-Dame de la Paix) Les aux n'ont touché à l'heure actuelle que des poches envahies, au sein de formations bien conservées de Bois de couleur. En présence de Vigne marronne, la lutte en utilisant le fosamine ammonium est assez efficace, dès lors que les surfaces traitées sont peu étendues (de l'ordre d'un hectare) et les sols assez fertiles pour pouvoir supporter une forêt. Dans les forêts envahies par le Longose, la régénération en sous-bois est possible tant que le recouvrement n'est pas trop important ; lorsque l'envahissement est total, la régénération est absente et la lutte très difficile voire impossible, si bien qu'elle n'est pas encouragée. • Les forêts de Cilaos Ces formations forestières très originales, intermédiaires entre les forêts à tendance sèche et celles de moyenne altitude, sont encore bien représentées, mais elles sont claires et leur couvert permet à une peste végétale arbustive, le Troène de Ceylan, de s'installer partout en sous-bois (Lavergne, 2000). L'objectif actuel de la lutte est d'éviter la production de graines et la dissémination par les oiseaux de cette peste dans tout le cirque. La destruction des plants intervient avant la production de graines. La lutte mécanique et chimique est assez efficace. Malheureusement, la rapidité d'infestation est telle et le couvert de la forêt si léger que la destruction est à reprendre quelques années après un premier traitement. • Les forêts à tendance sèche (la Providence, Vallée du Bras des merles) Ces forêts extrêmement importantes pour la conservation des écosystèmes de La Réunion ne subsistent que sous forme d'îlots forestiers au milieu de formations secondaires souvent plus basses. Les résultats de la lutte contre la Liane papillon sont prometteurs. La liane semble particulièrement sensible au glyphosate et au triclopyr. Cependant, il faudra attendre quelques années pour savoir s'il est possible de reconstituer un couvert forestier dans ces milieux où les conditions écologiques sont assez difficiles : sols très fragiles et précipitations présentes uniquement . For SIGALA pendant la période cyclonique. Comme pour les autres milieux, les travaux de reconstitution écologique en zone sèche ou d'altitude ont fait l'objet d'une normalisation (Arnould, 1998). En tenant compte des entretiens pendant plus de trois ans, le coût final de la reconstitution écologique est estimé à 000 € HT par hectare. • Les forêts de Bé bour En forêt d'altitude (Bois de couleurs des Hauts ou Tamarins), la lutte contre la Vigne marronne a donné de bons résultats, en particulier aux abords des routes. Malheureusement, la lutte contre le Fuchsia de Magellan présente des difficultés techniques non encore résolues. Par ailleurs, dans les zones mouilleuses, malgré une éradication efficace des espèces envahissantes, la forêt naturelle ne se réinstalle pas et les invasions risquent de se propager. La lutte biologique Lancée en 1996, la lutte biologique contre les pestes végétales a pris un tournant décisif en 1997, date à laquelle des recherches en vue de lutter contre la Vigne marronne et le Troène de Ceylan ont commencé. UNE STRATÉGIE POUR L'AVENIR Avec plus de 10 ans d'expériences à La Réunion, la lutte manuelle et chimique contre les espèces exotiques envahissantes a permis de reconstituer des milieux forestiers menacés. Assez logiquement, la destruction des pestes végétales et la reconstitution écologique sont efficaces lorsque le milieu est fertile : il convient d'y concentrer tous les efforts de reconstitution. 160 Bien sûr, il existe des cas où la lutte n'a pas d'intérêt. Dans les milieux les plus difficiles : trop humides, trop secs ou sans sol, la lutte chimique et mécanique est vouée à l'échec car le milieu reste très difficile à recoloniser par la végétation indigène ou endémique et, même si la destruction physique d'une peste est possible, le milieu peut être envahi très rapidement par une autre espèce exotique. Enfin, face à certaines pestes comme le Longose ou les fuchsias, les forestiers restent désarmés car ces plantes parviennent à coloniser de façon très efficace des milieux fermés non perturbés. Pour l'avenir, on peut élaborer une stratégie en plusieurs points, fondée sur la création d'un observatoire des pestes végétales et animales. • Continuer la lutte biologique dans le cadre des programmes en cours : Vigne marronne et Troène de Ceylan et développer si possible la lutte contre d'autres pestes majeures : - la Liane papillon, qui est une menace pour le milieu de zone sèche ; Ajonc d'Europe qui a déjà fait l'objet de lutte dans d'autres parties du monde et qui, - l'A de ce fait, ne serait pas trop compliqué à contrôler ; - le Longose, qui résiste aux produits herbicides. Dans un premier temps, des études écologiques concernant ces èces devront être initiées par des chercheurs : cartographie précise, biologie de la reproduction, étude bibliographique sur les effets de ces plantes dans d'autres régions du monde, processus d'invasion à La Réunion. L'expérience prouve que de nombreuses espèces sont introduites annuellement à La Réunion et que, après un certain temps de latence, certaines envahissent le milieu naturel. Une équipe d'observateurs surveillant les espèces en voie d'acclimatation permettrait de repérer et détruire sur les nouvelles zones envahies celles qui deviennent menaçantes. Cette équipe pourrait aussi travailler sur les espèces animales introduites, dont l'impact sur le milieu naturel est tout aussi néfaste. Elle pourrait enfin développer une communication sur le thème du milieu naturel et de sa fragilité.
53,737
64/hal-univ-bourgogne.archives-ouvertes.fr-hal-02538156-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
2,208
3,733
Compte rendu de : François Chaubet, Sabine Jansen et Laurent Martin (dir.), Générations du xxe siècle. La France et les Français au miroir du monde. Mélanges en l'honneur de Jean-François Sirinelli, Paris, CNRS Éditions, 2019, 522 p. Philippe Poirrier 1 François Chaubet, Sabine Jansen et Laurent Martin (dir.), Générations du XXe siècle. La France et les Français au miroir du monde. Mélanges en l'honneur de Jean-François Sirinelli, Paris, CNRS Éditions, 2019, 522 p. 1 Mots-clefs : historiographie ; histoire politique ; histoire culturelle ; Science Po Paris Index géographique : France ; monde Index historique : XXe-XXIe siècle Sommaire I. Une histoire des intellectuels II . Vers une histoire socio-culturelle du temps présent III. L 'historien baby-boom er : conjoncture et formes de la recherche L'exercice des « mélanges » est un rituel universitaire, témoignage de reconnaissance et d'amitié des élèves, disciples et collègues à l'heure de la retraite institutionnelle. Cela donne souvent des volumes hétéroclites, avec des contributions inégales, pas toujours véritablement lues et (trop) souvent peu ou mal référencées 2. Le volume offert à Jean-François Sirinelli n échappe pas à la règle, même si les trois directeurs de la publication ont pris soin de classer les 26 contributions en quatre grandes parties qui reflètent les champs de recherches du dédicataire : « Histoire culturelle : méthodes et terrains » ; « De l'histoire des intellectuels à l'histoire intellectuelle » ; « Histoire politique et culturelle » et « Des relations internationales à l'histoire cultuelle des relations internationales ». Nous choisirons une lecture en creux de ce volume afin de revenir sur l'itinéraire de Jean-François Sirinelli. Et prendre au mot le Doyen Vedel : « on dirait qu'un livre de Mélanges n'a pas d'objet, mais seulement un sujet qui est la personne que l'on veut honorer » 3. Quelques contributions plus personnelles – notamment celle de l'éditeur Denis Maraval ou encore celle de Jean-Pierre Rioux –, quelques annotations fugaces d'un texte à l'autre, et surtout l'entretien que donne Jean-François Sirinelli à Sabine Jansen, et qui clôt le volume (p. 465-517), permettent une lecture historiographique 4. Le politiste Christian Lequesne, qui signe un texte sur la situation à Sciences Po au lendemain de la disparition brutale de Richard Descoings, dresse, en quelques phrases, un portrait du dédicataire, en insistant sur son urbanité légendaire : « La première fois que j'ai entendu s'exprimer Jean-François Sirinelli dans une réunion à Sciences Po, j'ai pensé que cet homme avait été éduqué chez les bons pères. Toujours calme et policé, le Professeur 1 https://www.cnrseditions.fr/catalogue/histoire/generations-du-xxe-siecle/. 2 Françoise Waquet, « Les "mélanges" : honneur et gratitude dans l'Université contemporaine », Revue d'histoire moderne et contemporaine, 2006, vol. 53, n° 3, p. 100-121. 3 Georges Vedel, « Préface », dans Droit et politique à la croisée des cultures. Mélanges Philippe Ardant, Paris, Librairie générale de droit et de jurisprudence, 1999, p. V. 4 Cette recension peut se lire en complément d 'un texte, publié en 2007 , dans une revue canadienne : Philippe Poirrier, « L'Histoire culturelle en France. Retour sur trois itinéraires : Alain Corbin, Roger Chartier et JeanFrançois Sirinelli », Cahiers d'histoire, vol. XXVI, no 2, 2007, p. 49-59. En ligne : https:// tinyurl.com/wkukeuc. 2 ne renonce jamais à cette voix douce qu'on parfois les ecclésiastiques lorsqu'ils s'adressent à leurs ouailles. En fait, je me trompais. Petit-fils d'instituteurs corses et fils d'un professeur de grec ancien respecté, qui fut recteur d'académie et directeur des enseignements supérieurs, Jean-François Sirinelli est un homme de la laïque très attaché au service de l Éducation nationale ». Et d'ajouter une hypothèse probable sur ses affinités politiques : « J'ai toujours pensé que son coeur penchait plutôt à gauche ; cette gauche républicaine issue de la IIIe République croyant à l'intervention bienfaisante de l'État ». Jean-Pierre Rioux complète cette esquisse de portrait : « Rien ne nous prédisposait à rouler en tandem. Les atavismes de JeanFrançois se distinguent des miens. Il est plus "héritier" et mieux imprégné que moi de la pompe et des oeuvres de l'Alma Mater. Je n'ai pas son urbanité, si pudique et si sincère, sous son couvert châtié ». Spécialiste de l'histoire politique et socioculturelle de la France contemporaine, professeur à l'Institut d'études politique de Paris de 1998 à 2017, directeur du Centre d'histoire de Sciences Po de 2000 à 2013, co-directeur depuis 1997 de la Revue historique, président du Comité français des sciences historiques de 2000 à 2017, Jean-François Sirinelli a occupé une place institutionnelle centrale au sein du paysage académique. Né en 1949, à l'aube des Trente glorieuses, son itinéraire est représentatif de celui d'une génération d'historiens qui ont choisi d'élargir chronologiquement leur questionnement, de l'entre-deux-guerres vers le temps présent, et de quitter les rives de l'histoire économique et sociale, afin de contribuer à une réhabilitation d'une histoire du politique, bientôt fécondée par la montée en puissance de l'histoire culturelle. I. Une histoire des intellectuels Élève de René Rémond à l'Université de Paris X-Nanterre, et longtemps cadet en rémondie, reçu premier à l'agrégation d'histoire en 1973, Jean-François Sirinelli choisit un sujet de thèse consacré aux khâgneux et normaliens dans l'entre-deux-guerres. Centré sur l'engagement, ce travail, soutenu en 1986, lui permet de mettre en oeuvre des outils conceptuels (la mise en lumière de générations, l'étude d'itinéraires croisés, l'observation de structures de sociabilité) qui seront ensuite mobilisés sur d'autres terrains. De plus, cette thèse est très attentive à la question de la mobilité sociale et à l'insertion des intellectuels au sein de la société. JeanFrançois Sirinelli ne reste d'ailleurs pas prisonnier de cette forme d'histoire des intellectuels qu'il a fortement contribué à structurer par la mise en place, en 1985, d'un séminaire à l'Institut d' du temps présent du CNRS, et publie des textes, monographies et manuels, qui ont l'ambition de proposer une nouvelle lecture de l'histoire politique et culturelle de la France contemporaine. L'attention portée aux phénomènes de médiation, de circulation et de réception s'impose durablement dans ses travaux. Cette manière de faire allait colorer tout un courant de l'histoire culturelle en France au cours des trois décennies suivantes, notamment chez les spécialistes du XXe siècle. Bibliographie sélective Les intellectuels en France, de l'affaire Dreyfus à nos jours (avec P. Ory), Paris, Armand Colin, 1986. Génération intellectuelle. Khâgneux et normaliens dans l'entre-deux-guerres, Paris, Fayard, 1988. Intellectuels et passions françaises. Manifestes et pétitions au XXe siècle, Fayard, 1990. L'histoire des droites en France, Paris, Gallimard, 1992. Sartre et Aron, deux intellectuels dans le siècle, Paris, Fayard, 1995. Pour une histoire culturelle (avec J.-P. Rioux), Paris, Seuil, 1997. Le temps des masses, tome IV de l'Histoire culturelle de la France (avec J.-P. Rioux), Paris, Seuil, 1998. 3 Les baby-boomers. Une génération 1945-1969, Paris, Fayard, 2003. Comprendre le XXe siècle français, Paris, Fayard, 2005. Les Vingt Décisives. Le passé proche de notre avenir 1965-1985, Paris, Fayard, 2007. Mai 68 : l'événement Janus, Paris, Fayard, 2008. La Ve République, QSJ n° 3821, Paris, PUF, 2008. Dictionnaire d'histoire culturelle de la France contemporaine (avec C. Delporte et J.-Y. Mollier), Paris, PUF, 2010. L'Histoire est-elle encore française?, Paris, CNRS Éditions, 2011. Désenclaver l'Histoire. Nouveaux regards sur le XXe siècle français, Paris, CNRS Éditions, 2013. Dictionnaire des historiens (avec Claude Gauvard), Paris, PUF, 2015. Les révolutions françaises, 1962-2017, Paris, Odile Jacob, 2017. Générations historiennes, XIXe-XXIe siècle (avec Yann Potin), Paris, CNRS Éditions, 2019. II. Vers une histoire socio-culturelle du temps présent À partir des années 1990, Jean-François Sirinelli plaide avec continuité pour une fécondation réciproque entre l'histoire culturelle et l'histoire politique. La notion de « culture politique », empruntée à la science politique, est très largement mobilisée dans l'Histoire générale des systèmes politiques (1997-1998). Il est également l'un de ceux qui tentent de mieux asseoir la légitimité de l'histoire culturelle. Amorcée dans le cadre de l'Histoire des droites en France (1992), cette réflexion, au centre du séminaire que Jean-François Sirinelli anime à partir de 1989 avec Jean-Pierre Rioux, aboutit en 2005 à une définition plus ramassée : « l'histoire culturelle, c'est-à-dire faire l'histoire de la circulation du sens au sein d'une société, le sens étant entendu tout à la fois comme direction et comme signification. L'une des définitions possibles de l'histoire culturelle est bien, en effet, qu'elle est une double histoire du sens, et l'attention portée sur deux aspects d'un même mot se justifie pleinement : la signification se modifie avec la circulation et les phénomènes de représentations collectives étudiés ne peuvent être dissociés des mouvements cinétiques qui les affectent ». Ses recherches se centrent de plus en plus sur le second vingtième siècle. Il est l'un des premiers historiens français à travailler sur les années 1960, à réfléchir à l'histoire de la « culture de masse », et à s'interroger sur la possibilité d'écrire une histoire du temps présent qui adopte les démarches de l'anthropologie historique. À ce titre, il est l'un des piliers de la rédaction de la revue Vingtième siècle, revue d'histoire, née en 1984, longtemps dirigée par Jean-Pierre Rioux, et qui contribuera, à la charnière de Sciences Po et de l'Institut d'histoire du temps présent (IHTP-CNRS) à légitimer, en France, la pratique de l'histoire du temps présent. « L'historien sur le polder », comme aime à se définir Jean-François Sirinelli en mobilisant la métaphore de l'historien-paysan hollandais qui travaille sur les décennies progressivement dégagées par le cours ininterrompu du temps, conclut son volume Les Révolutions françaises, terminé en juin 2017, par une lecture générationnelle des résultats des élections présidentielles de 2017. Ces publications diverses – monographies, entreprises collectives, manuels –, essentiellement centrées sur l'histoire de France, confortent la réception de ses travaux, et illustrent l'une des formes d'histoire culturelle et politique désormais bien installée. Jean-François Sirinelli regrette néanmoins la place de plus en plus réduite de l'école historique française, et de l'usage scientifique de la langue française, sur la scène internationale, à l'heure de la 4 globalisation et de la domination croissante des modèles historiographiques anglo-saxons, et plaide pour un désenclavement et une ouverture à la « culture-monde » 5. III. L'historien baby-boomer : conjoncture et formes de la recherche Jean-François Sirinelli appartient à une cohorte – celle des baby-boomers dont il se fait l'historien – qui a bénéficié d'une conjoncture sociétale et institutionnelle relativement favorable. Encore que les années 1970 constituent un étiage pour les concours et qu'il faille attendre le milieu des années 1980 et une politique universitaire plus volontariste pour assister à l'augmentation du nombre de postes offerts dans 'enseignement supérieur. Assistant à Paris I Panthéon Sorbonne (auprès de Maurice Duverger) puis à Paris X-Nanterre – où il est recruté en 1978 la même année que Pascal Ory –, il s'engage dans une thèse d'État, bientôt qualifiée, en 1984 avec la réforme des études doctorales, d'« ancien régime ». Il illustre la figure de l'enseignant-chercheur de la fin du XXe siècle, certes attentif au devenir de ses doctorants et particulièrement sensible au renouvellement générationnel, mais aussi attentif à la formation initiale. Certes le public de Sciences Po n'est pas celui de l'université de masse ; celle que Jean-François Sirinelli a connu à Lille de 1987 à 1998 : plus de 1 000 étudiants en première année, issus d'une région sinistrée par la crise des industries traditionnelles. Il a connu l'organisation progressive de véritables laboratoires de recherche en Histoire : encore presque inexistante à Nanterre à la fin des années 1970, elle se structure, comme à Sciences Po au début du XXIe siècle, dans le cadre de groupes de travail thématiques. Entrepreneur scientifique dynamique, Jean-François Sirinelli a pu impulser, avec finalement assez peu de moyens financiers, des chantiers collectifs, articulés souvent sur des séminaires au long court et/ou des commandes éditoriales issues de partenariats avec des éditeurs (Gallimard, Hachette, Le Seuil ou encore les Presses universitaires de France). La liste des contributeurs de ce volume de mélanges traduit d'une certaine manière l'influence de Jean-François Sirinelli sur la scène historiographique nationale. Quelques contemporains immédiats qui ont souvent mené des opérations éditoriales avec le dédicataire : la médiéviste Claude Gauvard, qui partage avec Jean-François Sirinelli la direction de la Revue historique et qui donne ici un texte malicieux sur les écrivains du Moyen Âge comme historiens du temps présent, Jean-Pierre Rioux – le doyen de ce volume –, Georges-Henri Soutou, Bernard Lachaise, Sylvie Guillaume, Robert Frank, Jean-Yves Mollier, Rémy Rieffel, Christine Manigand, ou encore Pascal Ory – « frère en thèse » comme l'écrit ce dernier. Ensuite, une première génération d'élèves (François Chaubet, Sabine Jansen, Pascale Goetschel, JeanFrançois Muracciole, etc.), une seconde (Jacques Cantier, Laurent Martin, Ludivine Bantigny, Patrick Clastres, Marie Scot, etc.), voire une troisième (Bibia Pavart, Angélique EscafréDublet, Elisa Capdevila, etc.) matérialisent l'attractivité du directeur de thèses. La diversité des sensibilités historiographiques est réelle, même si l'histoire pratiquée à Science Po e largement. Jean-François Sirinelli n'a sans doute pas le tempérament d'un chef de clan et son ouverture d'esprit peut se lire dans cette diversité historiographique représentée. Cette configuration témoigne aussi de son souci de la transmission, dans le cadre d'ouvrages collectifs, de dictionnaires notamment, destinés aux étudiants et à un large public cultivé. On se souvient aussi de la série « La France contemporaine » qu'il impulsa comme éditeur scientifique, publiée au tournant du siècle dans la collection « Références » du Livre de Poche, et qui permit à une nouvelle génération – celle née au cours des années 1960 – de s'exprimer.
33,946
26/tel.archives-ouvertes.fr-tel-01703594-document.txt_16
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
9,253
14,246
à employer, PARTIE III : QUE DISENT LES DONNEES? selon Noé, implique nécessairement de l'effort de la part de l'enseignant qui peut d'ailleurs être considérable : {01:43:50} 0174 Noé puis en ce qui concerne l'utilisation des manuels et tout ↑+ au début c'est pas c'est pas facile de de se mettre dedans ↑+ mais comme c'est des manuels qui sont + conçus pour : l'enseignement↑++ c'est + ça va ça va tout seul↑+ et puis après tu rajoutes ton truc à toi et tu + tu tu essaies de voir les étudiants comment ça passe et puis tu tu arranges + au fur et à mesure c'est des choses que tu acquiers aussi par + par expérience donc tu vois (EG) Selon Noé, en prenant connaissance d'une nouvelle méthode lors de l'interaction didactique, l'enseignant s'adapte et essaie différents choix méthodologiques directement avec le public. Il est possible que le début de ce processus de familiarisation avec ce nouvel élément contextuel ne soit « pas facile ». La réflexion de Noé ci-dessus fait écho aux obstacles de Maria et de Shan analysés plus haut (cf. § 9.8.2 et § 9.8.3). Rappelons que dans les deux cas, l'obstacle relève d'une nouveauté contextuelle : introduction d'un programme au rythme déterminé pour le diplôme où intervient Maria et emploi d'une méthode de langue nouvellement choisie par l'institution pour Shan. Reprenons l'obstacle de Maria face au changement contextuel pour l'analyser ici sous l'angle de l'évolution de la pensée enseignante. A plusieurs reprises, Maria exprime son désaccord avec l'application du programme prédéterminé en tant que nouveauté contextuelle car elle juge trop élevé le rythme prescrit : {00:32:00} 0096 Maria []comme eux ils ont fait le DU 1 avec ce système↑+ donc ils ont du demander à Cécile qui + qui donc m'a demandé tu fais un plan de progression + et puis en plus + d'habitude on va à la leçon 20 et là on est allé à la leçon 22+ une leçon de plus ça fait 4 semaines {00:32:26} 0097 Enquêtrice mais finalement vous êtes arrivés euh {00:32:28} 0098 Maria on est allé à la 21 + tu vois on était à un rythme plus rapide que l'année dernière↑+ ces étudiants l'année dernière franchement ils me disaient non + on a pas envie de progresser on voudrait réviser + cette année je pense que comme les faibles étaient très faibles↑+ ils osaient ils osaient pas demander↑+ parce qu'ils voulaient pas bloquer + l'avancement des autres↑+ tu vois + [] (EAC 2) Dans l'extrait ci-dessus, la comparaison entre le rythme habituel et le rythme prédéterminé dont le décalage s'avère être de quatre semaines, se poursuit par des commentaires de l'enseignante sur un phénomène annexe : « cette année [] les faibles étaient très faibles ». Ainsi, suivant la logique de Maria, l'application de cette contrainte institutionnelle nouvellement VERS UNE ORISATION DE L EVOLUTION TANT QUE TINE avec expérience avec une autre nouveauté contextuelle encore du rythme voulu : le niveau du groupe, moins élevé cette année, n'est pas à la hauteur d'une progression si rapide. La comparaison entre le niveau du groupe de « cette année » et celui des « autres années », repérable dans l'extrait ci-dessous, apparaît d'ailleurs 17 fois dans le corpus Maria. {14:37} 0038 Maria euh: non le démarrage de :: oui pour leur faire les faire répondre + ouais disons ce groupe il y a une grande disparité + le niveau {14:47} 0039 Enquêtrice pour les autres années c'est pas le cas {14:50} 0040 Maria un peu moins quand même + cette année c'est : je crois que c'est un peu plus marqué + DISONS + les autres années↑ il y a quand même une groupe plus important ↑ + qui est plus à l'aise en chinois + à l'oral + qui ont déjà fait du chinois ↑ + un peu plus comme Julien tu vois comme Julien il y en a en général des groupes + l'année dernière ↑ (réfléchit) + oui il en y avait un peu plus que ça + ouais + donc cette année c'est vrai que (EAC 1) La composition du groupe avec un nombre d'étudiants de niveaux faibles assez important et d'apprenants « collaborateurs moteurs » (cf. § 9.4.2) très peu nombreux est selon Maria, inédite par rapport aux groupes précédents avec lesquels elle a pu collaborer. Ainsi, un groupe jugé exceptionnellement faible rend l'application d'un programme au rythme exceptionnellement élevé encore plus difficile. D'après les propos de Maria, la gestion de ces deux nouveautés contextuelles a priori incompatibles se distingue de son expérience d'enseignement antérieure. Le commentaire de l'enseignante suivant proposé vers la fin de l'EAC 2 correspond d'ailleurs à notre analyse cidessus : {00:35:50} 0118 Maria non franchement c'est cette année et + disons il y a + est-ce que c'est l'année dernière + non l'année dernière c'était bien + l'année dernière c'était assez amusant + on avait des forts tu te rappelles + {00:35:60} 0119 Enquêtrice Oui {00:36:01} 0120 Maria et puis il y avait vraiment + en général ça pouvait être assez vivant et + on avait des niveaux moyens + Nabila la jeune fille tu vois il y en avait qui étaient pas les plus forts mais ils étaient ils avaient un niveau moyen+ et puis ils étaient plus nombreux donc ça crée un petit dynamisme du groupe ++ et il y a eu une année où ils étaient moins nombreux mais + il semble qu'ils étaient assez accrochés + ils étaient c'était un groupe homogène ++ non cette année oui c'était + c'est assez spécial + regarde déjà regarde surtout que Julien + Monica après oui + c'est la première fois que + (rire) + pour le DU là ils {00:36:39} 0121 Enquêtrice c'est un peu perturbant euh {00:36:40} 0122 Maria ouais ++ non non ouais + non mais c'est + pour toi je sais pas ce que tu peux en tirer parce que c'est vrai que c'est pas vraiment une année tout à fait caractéristique + j'espère ↑+ [](EAC 2) La tendance de Maria à typifier l'expérience d'enseignement de l'année en question comme 422 QUE DISENT ? singulière se voit dans les déterminants qu'elle emploie pour la qualifier – « assez spécial » « pas vraiment tout à fait caractéristique » et également à travers l'inscription du dispositif et de l'enquêtrice dans son argumentation – ce qui est observé dans l'expérience en question ne correspond pas à ce qui se passait habituellement. La gestion de ces nouveautés par des pratiques adaptées, comme par exemple celle de l'explication du texte par lecture et traduction analysée précédemment, permet déjà d'observer l'évolution de la pratique de l'enseignante en fonction de l'évolution du contexte. L'évolution engendrée par ces nouveautés contextuelles ne se limite d'ailleurs pas au niveau de la pratique : {36:44} 0070 Maria euh disons c'est : + oui↑ c'est un peu difficile à + à arriver mais je me + parce que c'est intéressant de voir parce que : + c'est vrai que quand t'es devant↑+ tu réagit pas↑+ mais là tu vois je me pose la question justement + bah j'aime bien ce manuel↑+ mais là pour ce groupe-là + fin par ceux qui suivent ↑+ c'est peutêtre un peu difficile finalement + ou le texte est trop long + il faudrait vraiment faire de tous petits textes je pense {37:12} 0072 Maria je vois oui si on va faire à chaque leçon le texte en entier↑ + et qu'ils le préparent pas↑+ et qu'il faut le lire et le découvrir pendant le cours↑+ finalement ça prend du temps et: ++ bon c'est vrai que c'est utile de lire les caractères on voit déjà avec les phrases tu sais quand on fait les caractères↑ euh + donc je me dis c'est vrai si si on avait pas le manuel↑+ si je devais décider du matériel↑+ tu vois + quand je fais des cours de français moi je m'adapte au groupe+ pour le matériel+ tu prends des manuels plus difficiles ou plus simples + et là pour ce groupe là j'aurais + j'aurais volontiers pris des textes courts+ de petits textes courts+ donc faire la moitié moins de textes↑+ que par exemple ceux qui étaient plus avancés+ plus plus + qui avaient plus de base + en chinois {37:59} 0073 Enquêtrice mais cette idée euh ne n'était pas arrivée avec les autres groupes des années précédentes {38:06} 0074 Maria non parce qu'en général↑+ euh + fin bon bien sûr il y a toujours des étudiants faibles mais + ça va plus vite tu vois + et il y a plus de participation + euh + là cette année c'est très euh + oui ils ont ils ont + fin en tout cas ceux: + ceux qui connaissent parlent peut-être pas + peut-être j'interroge plus ceux qui savent pas je sais pas (rire des deux)+ mais : c'est vrai que c'est euh + il y a pas il y a moins de + tu vois les autres ils réagissaient même s'ils étaient pas interrogés + donc ils intervenaient sans être interrogés + là tu vois il faut vraiment que je nomme + tiens un tel qu'est-ce que tu en penses + qui veut lire il y a toujours des volontaires pour lire ↑ (EAC 1) Vers la fin de l'extrait ci-dessus, l'enseignante finit par mettre en question la pertinence de la méthode de langue qui correspond à sa préférence personnelle (« j'aime bien ce manuel »), et qui est jugée ici peu convenable pour le public en question dont le niveau est plutôt faible. Cette mise en cause du manuel n'apparaît qu'à l'EAC 1 tandis qu'au moment de l'EG, aucun commentaire comparable relatif à cet outil d'enseignement n'est repérable. L'évolution des représentations de 423 CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT Maria sur la méthode de langue peut être visualisée par le schéma suivant : nouveauté 2 niveau du groupe moins élevé nouveauté 1 programme au rythme accéléré incomptabile selon Maria mise en cause de la pertinen ce de la mé thode de langue Figure 22 : contradiction entre deux nouveautés contextuelles : le cas de Maria L'évolution au niveau représentationnel, repérable dans le discours de Maria, s'explique ainsi par l'expérience en cours, et notamment par les obstacles rencontrés durant la prise en considération des nouveautés contextuelles dans l'organisation de son activité d'enseignement. Ainsi, comme ce qui est indiqué par les socioconstructivistes et les émergentistes, la contradiction et la crise génèrent le changement, la transformation et l'apprentissage (Hadman, 2005 ; Engeström, 2006 ; De Bot, 2008 ; cf. Chapitre 1). La réflexivité émerge ainsi d'un retour sur les obstacles dont la résolution nécessite la mobilisation de l'enseignant qui, visant à débloquer la situation, pourrait visualiser l'ensemble du système de l'activité autrement en changeant de perspective. Les verbalisations des enseignants vis-à-vis des obstacles permettent aussi de saisir la résistance des enseignants face aux contraintes institutionnelles nouvellement introduites et de confirmer l'invalidé de l'approche descendante visant à imposer et à ordonner sans prendre en compte des représentations des enseignants (Borg et Al-Busaidi, 2010 ; cf. Chapitre 3). Comme le dit le sociologue Crozier « le changement réussi ne peut donc être la conséquence du E III QUE SENT ? remplacement d'un modèle ancien par un modèle nouveau qui aurait été conçu d'avance par de sages quelconques ; il est le résultat d'un processus collectif à travers lequel sont mobilisées, voire créées, les ressources et capacités des participants nécessaires pour la constitution de nouveaux jeux dont la mise en oeuvre libre-non contrainte – permettra au système de s'orienter ou de se réorienter comme un ensemble humain et non comme une machine. » (Crozier et Friedberg, 1992 : 391). Nous terminons ainsi cette partie avec une réflexion proposée par Noémie qui rejoint nos analyses ci-dessus : une fonction motrice est accordée aux difficultés rencontrées dans le sens où la pensée enseignante se développe au cours de la gestion de ces dernières : {01:20:28} 0417 Enquêtrice et qu'est-ce que tu as eu comme difficulté peut-être+ avec : soit cette classe ou d'autres classe↑+ {01:20:36} 0418 Noémie +ben à tous les niveaux ah : des difficulté d'organisation : des difficultés de gestion de matériel : des difficultés de relation euh: fin j'ai pu rencontrer soit avec les autres enseignants: soit avec la hiérarchie les étudiants+ euh des difficultés à monter un cours: des difficultés à trouver des documents intéressants des difficultés à animer le cours des difficultés à évaluer+ enfin tout est source de question mais j'aime bien me poser des questions (rire) donc euh c'est enrichissant (EG) 10.1.3 Expérience en cours étant composante du système de connaissances en devenir Dans le cas de Maria ci-dessus, l'expérience en cours, bien que caractérisée comme particulière, fait évoluer ses représentations sur la méthode de langue. Nous remarquons en parallèle chez les enseignants participants, d'autres cas où non seulement l'évolution de la pensée enseignante en raison de l'expérience en cours est verbalisée de façon explicite, mais aussi l'apparition d'une tendance à outiller leur répertoire didactique grâce à l'acquis de l'expérience en question qui devient ensuite composante des connaissances enseignantes. { 01:12:01} 0455 Noémie {01 :12:24 } 0459 Noémie {01 :19:35} 0497 Noémie ça c'est sympa tu vois↑+ que des euh + des + des des cohésions + le groupe + qui s'instaure ↑ s'installe ↑ que ils apprennent à se connaître ↑que ça je suis contente de le voir parce que je en en leur faisant ça des travaux de groupe j'ai espéré que +voilà ils se rencontrent comme c'était deux écoles différentes ↑ []peut-être ils se connaissaient pas↑+ je pense que c'est sympathique quand on a au moins une amie dans la classe+ et que j'aime bien du coup cette disposition↑+ je me dis que la disposition a créé ça+ c'est pas mal+ (EAC 1) [] parce que bon voilà + donc comment dire euh je connais pas très bien la culture chinoise+ donc j'essayais plusieurs choses pour voir qu'est-ce qui marchait le mieux+ là par exemple la conceptualisation j'ai vu que : ouais VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT ça marchait bien + euh la production orale c'est plus difficile+ à chaque fois je chu is obligée de désigner par exemple + pour avoir des réponses + voilà un un une des pratique s que je pourrai re tenir si de main j'ai des é tudiants chino is ↑ peut-être que je dé signerai aussi + { 01:20:01} 0498 En quêtrice pour qu 'ils parlent {01:20:54 } 0499 Noémie pour qu'ils parlent et et peut-être que je ferai la grammaire de cette façonlà aussi + si ça marche pas je change + mais j' essayerai cette façon-là d' abord {01:20:57} 0500 Enquêtrice d' accord ( EAC 1) Les deux extraits issus de l'EAC 1 de Noémie où elle retourne sur la séance trois du cours observé montrent l'itinéraire que suit son système de connaissances enseignantes pour s'enrichir. Selon Noémie, la disposition avec un regroupement par quatre apprenants qui se mettent face à face, crée des « cohésions » au sein du groupe composé d'étudiants venant de deux institutions et convient à sa préférence personnelle. L'énoncé par lequel la préférence est exprimée – « j'aime bien du coup cette disposition », est marqué d'un indice de causalité qui relie la fonctionnalité de disposition dans le contexte et la préférence personnelle pour cette pratique en général. Selon le discours de l'enseignante, la préférence provient de son évaluation positive de la pratique dont l'effet dans l'expérience en question lui paraît satisfaisant. Ce procédé de validation de la pertinence d'une pratique par l'expérience en cours est encore plus visible dans le deuxième extrait. Trois états du système de connaissances enseignantes de Noémie sont décrits ici : 1) un état é où elle essayait différentes pratiques avec le public sinophone ; 2) un état actuel où l'expérience en cours permet de distinguer certains choix méthodologiques fonctionnels ; 3) et un état futur où l'enseignante envisage de réappliquer ce qu'elle a pu retenir de l'expérience de l'ici-maintenant qui serait devenu partie intégrante de son répertoire didactique. L'influence de l'expérience en cours sur la pensée enseignante est également repérable dans le cas de Shan : {00:59:32} 0050 Shan Je trouve + un autre : un autre point est parce que les apprenants de ce groupe sont (姗) plutôt nombreux + donc une grande partie de ces étudiants sont relativement actifs + et puis + [] donc c'est-à-dire + puisque beaucoup d'entre eux sont plutôt actifs + donc je trouve que je trouve que euh + comment dire + pendant le cours + parce que parfois + moi je parle beaucoup et puis les étudiants plutôt peu + et puis je trouve : euh : bien sûr j'avais eu ce genre d'expérience avec d'autres groupes + mais à partir de ce groupe-là je trouve que + si c'est possible ce serait très bien d'encourager les étudiants à exprimer leurs points de vue [](EAC 2) D'après l'extrait ci-dessus, le fait que l'enseignante se considère comme dominante dans la prise E III : QUE DISENT LES DONNEES? de parole en interaction didactique n'est pas une nouveauté dans sa perception de soi. Cela dit, l'expérience en cours permet de la confirmer davantage : la structure concessive « bien sûr [] mais » sert à mettre en avant le poids de l'expérience en cours dans la construction de son agir professoral. L'expérience d'enseignement permet ainsi de réorganiser le système de connaissances enseignantes/convictions. Noé qui dit n'avoir jamais utilisé l'anglais ou le chinois comme langue d'enseignement, a recours au chinois à plusieurs reprises pendant cette session de cours. Lors de l'EAC 2, Noé évoque volontairement ce changement dans sa pratique enseignante qui a été, selon son discours, conscient de sa part : {01:20:23} 0092 Noé euh:++ je pense que c'est ++ c'est parce que je me suis dit que ça allait ++ peutêtre que à un moment donné↑+ j'ai + j'ai expliqué quelque chose à quelqu'un en chinois ou en anglais et puis je + j'ai senti que ça allait tout de suite↑++ et donc + ouais↓+ avant je ne le faisais pas parce que + je m'étais dit non il faut pas le faire + mais je n'ai pas essayé + donc+ je pensais que ça allait très vite changer euh + ça allait très vite partir dans +dans l'anglais le chinois tout le temps + je ne sais pas peut-être que ça a aussi joué dans le fait que + eux + surtout Luc qui n'est pas là↑(rire de l'enquêtrice) il n'arrête pas de parler anglais tout le temps↑+ peut-être que c'est + cette stratégie + n'est pas encore bien + mûrie + donc ça fait que il y a encore de petits soucis+ c'est peut-être que c'est ce qui les encourage à + à vouloir tout de suite parler en chinois ou en anglais je sais pas mais je pense quand même que + euh à un moment donné c'est important de + de le faire (EAC 2) Noé indique de façon claire la différence entre son agir avant la session et celui de l'icimaintenant pour la session qui vient de prendre fin : l'emploi de langue intermédiaire, autocensuré de la part de l'enseignant, est testé. Cette évolution n'est d'ailleurs pas limitée au niveau de la pratique : ayant été considéré comme une pratique risquée dans laquelle les langues intermédiaires prédomineraient sur le français, ce choix est maintenant qualifié d'« important ». Cela dit, Noé garde toujours un ton incertain dans son commentaire sur cette pratique nouvellement intégrée : il s'agit d'une « stratégie » qui « n'est pas encore bien murie ». Cette tonalité d'incertitude à travers laquelle transparaît le doute de l'enseignant sur sa pratique choisie est aussi repérable dans les discours suivants : {00:36:16} 0045 Shan Moi parfois j'utilise certains certains avec un ton accentué + par exemple + euh (姗) comme tout à l'heure + 'AH VOUS ETES↑' + ou c'est quoi + comme ça parfois + comment dire + et autre chose comme tout à l'heure 'ils sont belges aussi ↑' (ton différent) +je trouve est-ce que l'emploi de ce genre de ton peut peut-être leur 427 CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT + donner une impression plus ou moins forte aux étudiants (EAC 1) {24:14} {24:17} {24:37} {24:41} 0069 Enquêtrice Don c vous répétiez spécialement c ' étai t pour Non + cette répétition a été faite par peur qu' ils n'aient pas compris + souvent 0070 Zhao c'est comme ça + mais : parfois en tant qu'enseignant on doit avoir plus de (赵) confiance en étudiants + oui + lui quand il comprend pas on répète + mais pas lorsqu'il est en train de comprendre et tu répètes déjà plusieurs fois + euh + ça peut-être qu'il faudra faire attention après 0071 Enquêtrice Vous trouvez que cette répétition était inutile pour eux + ici Ici il y a pas beaucoup de répétition + cette partie n'a pas été trop répétée + mais 0072 Zhao parfois + parler lentement + à un rythme lent + et répéter beaucoup + un seul mot est répété plusieurs fois + euh : avec des exemples en plus + ça + euh : pourvu que ce soit bénéfique pour eux + mais (hésitant) ce n'est pas sûr (EAC 2) Shan revient sur sa stratégie de haussement du ton de la voix qui, comme elle le signale dans l'extrait ci-dessus, est régulièrement employée. Zhao, lors du visionnage d'une scène où il répète un même contenu, commente ensuite l'acte de répétition au sens général. Dans les deux cas, notamment dans les énoncés mis en gras et dans lesquels les enseignants évaluent la pertinence de la pratique verbalisée, des éléments modaux à valeur d'incertitude peuvent être remarqués (« peutêtre » « pas sûr »). PARTIE III : QUE DISENT LES DONNEES? pourtant tu vois je décompose pas ↑ les traits ↑ + j'écris très rapidement euh + on les regarde un par un + ce qu'il y a c'est qu'on regarde un par un ↑ + chais pas si c'est utile ↑ + ils ont pas l'air de se plaindre ↑ + j'ai pas eu de : ++ enfin ils ont jamais rien dit sur la + sur la méthode +ils parlent plutôt du rythme si c'est trop rapide ou pas assez rapide + non en général ils donnent jamais leur opinion fin + c'est vrai que je leur ai pas je devrai peut-être leur poser la question + tu vois écrire un petit truc anonyme qu'est-ce que vous pensez + qu'est-ce qu'il faudrait améliorer ↑ + je fais ça à Reims mais c'est vrai que je fais jamais en DU parce que : (EPS 9) Le commentaire de Maria porte toujours sur l'explication du texte par lecture et traduction, pratique qui n'est pas en correspondance avec ses convictions mais mise en place en raison des contraintes contextuelles (cf. § 9.8.2). Ici, Après une comparaison entre son ancienne façon de faire (« bah normalement ») et sa manière de faire actuelle (« mais finalement »), l'enseignante continue son commentaire avec une proposition marquée de doute – « chais pas », répétée deux fois. Maria change ensuite de perspective et se met à s'interroger sur les avis des étudiants par rapport au choix méthodologique dont elle n'est pas sûre de la pertinence. L'extrait se termine par la proposition d'une pratique que Maria dit ne jamais avoir employée pour le public en question : vérifier l'opinion des étudiants sur son cours par un questionnaire anonyme. L'évolution de la pensée enseignante, analysée ci-dessus, s' effectue en un sens au moment même de l'EPS 9 de Maria. L'incertitude de Maria sur la pertinence de sa pratique enseignante l'amène à demander l'avis de ses collaborateurs sur ce sujet pour ensuite tenter de le vérifier. D'ailleurs, la tonalité d'incertitude se prolonge dans le discours de l'enseignante sur la proposition-solution : le « je devrai peut-être », explicitement marqué d'un élément modal à valeur incertaine, fait transparaître à nouveau l'aspect instable et donc le côté évolutif de la pensée enseignante. Les trois extraits analysés ci-dessus, issus des corpus Shan, Zhao et Maria, font donc partie des verbalisations des trois enseignants expérimentés. Si dans les Chapitres 7 et 8, nous avons pu percevoir un ton incertain dans les autocommentaires des deux enseignants débutants, Noémie et Bai, par notamment l'insécurité interculturelle de Noémie, l'incertitude et le doute ne sont pas réservés aux enseignants juniors. Tout enseignant pourrait hésiter sur son action enseignante ou voire une pratique routinisée et stabilisée. Non seulement Noémie se sent en insécurité face à un nouveau groupe d'apprenants dont la culture éducative ne fait pas partie de ses connaissances enseignantes, mais Shan et Maria, l'une face à une nouvelle méthode de langue et l'autre à un programme au rythme déterminé nouvellement imposé, comme montré dans l'analyse ci-dessus, 429 CHAPITRE 10. VERS UNE THEOR ISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT tâtonnent également. Elles, comme Noémie, doutent, s'angoissent, se questionnent et cherchent à acquérir de l'expérience avec la nouveauté contextuelle tout en la découvrant. De ce fait, nous questionnons la pertinence de la dichotomie enseignant débutant et enseignant expérimenté dans le sens où chez un enseignant expérimenté, une nouveauté contextuelle, prévue ou imprévue, peut perturber le fonctionnement de l'agir enseignant et mettre l'enseignant dans un contexte reparamétré qui lui demande d'agir autrement. Les expériences anciennement accumulées et les connaissances enseignantes existantes peuvent ne pas être fonctionnelles pour la situation actualisée. Le contexte se renouvelle sans arrêt, l'enseignant expérimenté, tout comme l'enseignant débutant, se trouve constamment un état de découverte, d'essai et de ré-essai. L'enseignant enrichit, réorganise et réforme son agir professoral à partir de chacune de ses expériences et dit qu'il en est conscient. Noémie effectue une auto-observation et verbalise un changement dans son activité de planification : par rapport au premier semestre, l'enseignante a recours à une méthode de langue pour diminuer le temps de préparation (Noémie-EG-0308), Quant à Maria, les séances de correction du contrôle qu'elle dit faire habituellement sont selon sa verbalisation, supprimées cette année (Maria-EPS 7-0038). Noé théorise d'ailleurs dans l'extrait ci-dessus le poids de chaque expérience d'enseignement dans l'évolution de la pensée enseignante : {01:13:19} ++ euh : + là je je je crois que oui↑+ je crois que à chaque fois quand on termine une classe↑+ il y a toujours quelque chose qui + qui change + ça peut être + quelque chose que l'enseignant il + il apprend↑+ il apprend euh du fait que dans l'explication de de + d'un point + d'un point euh + ou bien dans l'explication d'un mot + vocabulaire donc d'un point de grammaire↑+ par rapport à la réaction des étudiants + on + on apprend aussi parce que + moi + personnellement il y a des + des phrases que je + je retiens pour des + des façons d'expliquer au mot↑+ que je + je vais systématiquement répéter après + donc + quand je parle de + d'un mot↑+ et que je + j'explique d'une certaine façon + je vois que ç'a été difficile d'expliquer ↑+ ou ça a été difficilement d'arriver à la + euh à la compréhension que j'attendais↑+ la prochaine fois que je vais expliquer le même moi je crois que je ne vais pas reprendre la même façon + donc : il y a des choses qui changent↑+ parfois c'est inconscient ++ mais quand on se retrouve dans la même situation↑+ on + on ne répète pas les mêmes choses ou on + on corrige ce qu'on avait déjà fait [](EAC 2) L'enseignant associe, dans sa réflexion, la particularité de chaque expérience d'enseignement à la spécificité de chaque contexte. L'exercice du métier d'enseignant dans différentes situations est ainsi théorisé par Noé en tant qu'un apprentissage pour lui : l'enseignant examine la pertinence de 430 PARTIE III : QUE DISENT LES DONNEES? ses pratiques enseignantes en fonction de leur validité dans le contexte en question pour ensuite les adapter. Le poids de l'expérience d'enseignement dans la construction du système de connaissances/convictions de Noé étant exprimé, le commentaire de l'enseignant permet notamment de percevoir sa prise de conscience sur l'évolution de son agir professoral. Durant un semestre de cours, la pensée enseignante évolue par introduction de nouvelles pratiques, par ajustement ou abandon des pratiques anciennement employées et par l'incertitude de l'enseignant par rapport à sa pratique enseignante. L'agir professoral s'actualise également et nécessairement dans chaque séance au sens où l'enseignant modifie toujours son action en fonction du changement contextuel perçu. Bai signale, lors de l'EAC 2, que parmi toutes les questions qu'il a posées dans un exercice oral, il distingue les questions adaptées en fonction de la réaction du public et celles qui sont formulées telles quelles comme la version initialement prévue dans sa fiche pédagogique. {01:23:07} 0237 Bai Comme tout à l'heure la phrase ne pas aimer paris + ça a été totalement improvisé (白) + oui + je trouve déjà il y avait ne pas aimer le travail + si elle était venue du contenu que j'avais préparé chez moi je n'aurais pas + euh fait deux choses pareilles + [] (EAC 2) Le critère de distinction est ainsi simple selon Bai : préparer deux phrases ayant tant de similarités pour une seule activité ne fait pas partie de sa pratique enseignante. Le fait qu'il modifie certaines questions durant l'interaction s'explique par sa perception instantanée de la situation d'enseignement : la réaction du public l'oblige à abandonner les phrases planifiées qui s'avèrent trop compliquées et à improviser des questions plus accessibles pour l'apprenant en question. Chez Noé, l'adaptation de la pratique enseignante à chaque séance semble être consciente et partie intégrante de sa pensée enseignante. D'ailleurs, ce qui est particulièrement intéressant, c'est que l'enseignant parle de son habitude de prévoir des moments de replanification dans certaines activités : {06:44} 0018 Noé []quand il y a ce silence↑+ et que VRAIMENT il y a du silence hein ↑ + ça veut dire QUE + ils font bien l'exercice+[]ce temps o ils sont en train de préparer cet exercice ↑+ ça me permet à moi de revoir un peu + parce que parfois il y a des choses qu'on prévoit faire↑+ mais + en classe ↑+ avec la réaction des étudiants ↑+ on sait que on ne pourra pas finir ↑ + ou qu'il faut rajouter d'autres choses+ donc avec ça + je je je vois un peu ce qu'il faut rajouter↑+ ce qu'il faut + jusqu'où je vais aller tout ça (EPS 5) 431 CHAPITRE 10.  Et de l'autre, de façon plus fondamentale, c'est-à-dire par le retour réflexif du praticien professionnel sur son expérience accomplie à partir de laquelle l'enseignant valide ou 133 Il s'agit d'une tâche constamment mise en place par Noé afin de connaître les difficultés de chacun des apprenants (cf. § 9.4.3). PARTIE III : QUE DISENT LES DONNEES? invalide sa pratique employée, se figure d'autres pistes pour l'organisation de l'activité d'enseignement et prend conscience de l'évolution dans sa manière d'enseigner. 10.1.4 Evolution de l'enseignant à travers l'actualisation de l'image des apprenants et les progrès du public Le public apprenant, également sujet-actant de l'activité d'enseignement/apprentissage, entre en contact avec son collaborateur, organisateur et animateur de l'activité et co-réalise le cours avec lui. L'enseignant et l'apprenant collaborent tout en se découvrant tout en l'un et l'autre. « Les progrès d'un apprenant de L2 pourraient être associés à la chimie qui se développe entre l'apprenant, le groupe d'apprenants et l'enseignant (Dewaele, 2010 : 22, traduit par nous). De ce fait, les commentaires des enseignants sur leur public, formulés à différents moments dans différents entretiens, ne sont pas toujours tout à fait cohérents. { 00:0 5:05} 0076 Noémie ils sont gentils:(rire)+ il s sont gentils et et et ils disent à tout ce que je posais (rire long) {00:05:12} 0077 Enquêtrice Donc tu penses pas qu'ils qu'ils aient vraiment compris {00:05:14} 0078 Noémie si si je pense qu'ils ont compris mais ils ils ils auraient pu euh fin s'ils voulaient hein dire non on veut pas que ce soit comme ça:↓par exemple+ des élèves français↑+s'ils sont pas d'accord + ils disent non: on veut pas faire ça+ on faire comme ça↓ alors que cette classe là ils étaient particulièrement sympa parce que: ils disaient ok à chaque fois que je proposais(rire) ils disaient ok (rire) (EAC 1) {00:58:04} 0168 Noémie ah là ils veulent plus parler français maintenant + alors j'ai dit NON ↓+ tout en français ↓ (rire de Noémie et de l'enquêtrice) + ils négocient ils négocient c'est aussi euh bon + de jeunes adultes qui viennent de sortir de l'adolescence: ↑+ bon c'est c'est la caractéristique aussi des ado fin bon ils sont quand même plus âgés que les adolescents ↓+ mais ils né-go-cient + voilà+ donc il faut quand même un moment donné euh dire ↑+ (EAC 2) L'interprétation de la caractéristique du groupe a totalement changé de l'EAC 1 à l'EAC 2. Dans le discours de Noémie et en termes de paradigme désignationnel, les étudiants « gentils » qui ne contredisent pas l'enseignante sont devenus ceux qui « négocient » sans arrêt tout comme des « adolescents ». L'image du groupe apprenant que Noémie perçoit lors du visionnage de la séance trois est ainsi différente de celle qu'elle construit à partir du filmage de la séance sept. Dans le deuxième cas, les apprenants sinophones ne sont plus ceux qui disent toujours oui à toutes les propositions de l'enseignante. L'évolution des représentations de l'enseignant sur ses apprenants peut rester au niveau individuel. 433 CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT Dans la séquence ci-dessous, Bai indique clairement que sa vision d'une apprenante en particulier et ses exigences sur sa performance en cours ont évolué : {11:55} 0043 Bai(白) {12:13} 0044 Enquêtrice {12:16} 0045 Bai {12:20} 0046 Enquêtrice {12:23} 0047 Bai {12:29} 0048 En quêtrice { 12:30 } 0049 Bai Pour moi comme Marianne la dame âgée + elle en fait XX + à mon avis bon + si tu parles de temps en temps ce sera pas mal + c'est pas tout à fait ça + mon idée a changé après + je dis souvent + t'es pas obligé d'utiliser ce qu'on apprend dans la leçon + c'est-à-dire + tu dis ce que tu arrives à dire Elle + en fait tout à l'heure au début elle était plutôt active + je trouve Elle faisait semblant + ça j'ai été trompé moi aussi + j'ai été trompé aussi j'ai été trompé aussi (rire) Tu trouves que depuis le premier semestre elle Elle a redoublé plusieurs fois + par exemple + elle a redoublé deux fois pour la première année + là elle redouble pour la deuxième année Cette fois ci c'est la deuxième fois La deuxième fois pour la deuxième année + et puis parfois elle voudrait montrer qu'elle est plutôt forte + elle par exemple + fois quand tu poses des questions + elle utilise spécialement des mots qu'on aura appris après + et puis + et puis pour l'utiliser + mais elle fait des fautes + mais en général elle voudrait montrer je connais plus de choses + comme ça (EPS 2) Selon l'enseignant, la participation active de Marianne, étudiante ayant redoublé plusieurs fois dans ce même programme est trompeuse : son niveau n'est pas en cohérence avec celui qu'elle se veut montrer dans l'interaction. L'évolution de l'image de l'apprenante en question s'accompagne d'ailleurs d'un changement d'exigences : il suffit de prendre la parole et l'emploi du contenu de la leçon n'est plus aussi important. Les représentations de l'enseignant sur l'apprenant groupe et l'apprenant individu évoluent dans la construction de l'histoire conversationnelle particulière à la communauté. L'objectif d'enseignement visant les compétences de l'apprenant dans la langue cible, l'enseignant s'intéresse également à l'évolution des apprenants, plus précisément, à l'évolution de leur niveau ainsi qu'aux progrès qu'ils effectuent. {00:56:57} 0141 Zhao (赵) Euh + je pense soudain à une chose + ça peut + c'est pas tout à fait que ça + tout à l'heure quand je parlais de ces étudiants + il y avait des changements chez eux + n'est-ce pas + ces changements en fait + l'évolution de l'enseignant même + l'enseignant lui-même + il le connaît pas très clairement + c'est-à-dire + au début en raison de la planification + parce que les cours plutôt longs et plutôt importants il faut + préparer depuis le début + donc avant l'année + euh + si on arrive à enseigner telle quantité de contenu + ju squ 'à quelle partie + quel niveau à atteindre + en général on les a déjà dans l'esprit + donc il y a un aspect planifié + on suit en un sens le plan + eu h : pour moi le plus plaisant : + ce qui est le plus plaisant est l'accomplissement du projet + en principe tout ce que je prépare pour chaque séance est fait + j'en suis plutôt content + eu h : l'évolution se voit en fait à travers les étudiants + l'évolution de leur niveau d'un côté + de l'autre l'évolution de l'assiduité 434 PARTIE III : QUE DISENT LES DONNEES? + c'est-à-dire (rire) certains étudiants au début + ils étaient là et après ils sont plus là leurs sièges sont donc vides [] {00:59:46} 0145 Zhao Oui + il s'appelle Monsieur Mimo + au début son niveau de chinois était loin d'être satisfaisant + mais il suit aussi des cours particuliers + fait des devoirs ceci et cela + plutôt consciencieusement {00:59:59} 0146 Enquêtrice Il est toujours habillé en costume {01:00:01} 0147 Zhao Oui oui ou i parce que lui il travaille + il travaille au consul + lui à la fin + le devoir qu'il a rendu à la fin + était très bien fait + [] ça se voit qu'il a fait beaucoup d'efforts + ça te donne l'impression que t'as pas eu beau faire (rire) + au moins un étudiant a fait des progrès [] (EAC 1) Zhao propose une définition personnalisée de l'évolution de la pensée enseignante. Selon lui, étant donné que durant l'activité d'enseignement, il se concentre sur l'accomplissement du programme d'enseignement, ce qui le préoccupe n'est donc pas l'évolution par rapport à lui-même mais par rapport à ses étudiants . À travers ses observations sur l'évolution du public en général et les progrès d'un apprenant individu, Zhao établit explicitement un lien entre l'évolution de la pensée enseignante et les progrès des apprenants : « l'évolution se voit en fait à travers les étudiants + l'évolution de leur niveau d'un côté + de l'autre l'évolution de l'assiduité ». Ainsi, la dynamique de l'agir professoral s'explique chez Zhao par l'énergie qu'il insuffle à l'organisation de l'activité d'enseignement et qui se reflète dans les comportements et les compétences de ses étudiants. Cette vision est également repérable chez Noé et Noémie : {00:10:10} 0037 Enquêtrice ça te plaît euh+ alors précisément c'est quels éléments qui te plaisent {00:10:17} 0038 Noé c'est + c'est qu'on voit euh + la la réalisation de ce qu'on fait + c'est concret + par exemple tu vois un étudiant qui arrive ↑+ et + il ne sait pas dire bonjour + il vient de commencer son premier cours et tout + mais au bout d'un moment tu le vois↑+ il arrive à un niveau B1 ↑+ et avec cet étudiant tu peux + facilement parler de ce que tu veux↑+ mais en français↑+et donc tu vois le parcours + tu sais que bon lui il a dû travailler + mais toi tu en es pour quelque chose aussi + et pour eux + euh avoir leur visas et partir en France + ou avoir leurs visas et partir au Québec et tout c'est leur rêve+ donc quand tu participes à + à la réalisation du rêve de quelqu'un euh+ c'est sûr que toi tu étais content aussi (EG) {01:06:45} 0199 Noémie j'adore là parce que l'on écoute les élèves↑+ s parlent français↑+ c'est bien + c'est ça + c'est ça que je voulais entendre vraiment+ ça c'était c'était vraiment chouette↑+ {01:06:59} 0200 Enquêtrice pourquoi c'est {01:07:01} 0201 Noémie ben ils parlent quoi↑+ ça fait ça fait ça donne de la fierté au professeur↑+ et puis aussi à tout le groupe parce que ils arrivent à se débrouiller en continu pendant euh fin quelque temps quoi↓ (EAC 2) Des marques discursives manifestant des émotions positives de Noé et de Noémie face aux progrès des apprenants peuvent s'observer : « content », « chouette » et « fierté » dont les deux derniers 435 CHAPITRE 10.  Une caractéristique des extraits relatifs mérite d'être évoquée : aucune marque d'incertitude n'étant repérée, les enseignants mesurent de façon affirmative les progrès qu'ils pensent avoir observés chez l'apprenant groupe ou l'apprenant individu et n'émettent pas de doute sur leur définition des progrès et du niveau.  Cependant, les énoncés portant sur les progrès des apprenants sont rarement accompagnés de critères. Si Maria commente de façon brève « et euh Anne-Lise a fait un progrès remarquable hein ↑ » (EPS 11-0023), il arrive également à Noémie de dire « en tout ça ils ont vraiment fait des progrès euh + de de de du départ à là + on le voit hein↑+ vraiment hein+ » (EAC 2-0215). A partir des discours des enseignants sur ce sujet recensés dans le tableau ci-dessous, appara issent 436 PARTIE III : QUE DISENT LES DONNEES? d'autres caractéristiques de leurs procédés évaluatifs afin de déterminer le développement des apprenants dans la langue cible : Bai-EAC 3-0261, 0263 (白) Bai-EPS 3-0015 Bai-EPS 5-0024 Noémie-EAC 2-0215 No émie-EAC 2-0129, 0131 No émie-EAC 2-0 201 Zhao-EAC 1- 0151 , 0153 ( 赵) Maria-EPS 5-0 123 Maria-EPS 12-0059 C'est toujours un ou deux étudiants + Pascal + Patrice + seulement ces deux + de toute façon ceux qui arrivent à parler arrivent toujours à parler + ceux qui y arrivent pas y arrivent toujours pas + mais ceux qui savent parler parlent toujours de ce qu'ils connaissent déjà + (rire de Bai et de l'enquêtrice) + j'ai toujours l'impression qu'au bout d'un an ils ont pas vraiment fait de progrès Je trouve qu'ils ont pas vraiment fait de progrès ++ peut-être qu'ils comprennent un peu plus de structure + mais dans la production il semble qu'ils aient pas vraiment + oui peut-être que c'était moi qui enseignais mal Donc et puis tu peux voir que les étudiants qui sont venus aujourd'hui ont un niveau plutôt bon + et aiment parler + comme Patrice même si son niveau n'est pas bon mais il aime parler + regarde il fait à chaque fois des fautes mais si t'aimes parler +t'auras des progrès + tu pourras progresser Oh elle n' a pas fait de grands progrès non+ ses progrès ne sont pas grands + elle seulement + parce qu' elle utilisait des phrases plutôt simples + en plus j'osais pas trop + c'est pas j'osais pas + j'étais pas exigent avec elle + si ça passe plus ou moins + si elle prend la parole + s'il y a pas trop de fautes + ça va on voit vraiment dans cette vidéo euh euh ben la progression voilà↓+ euh : : déjà dans le programme ↑+ et aussi de la relation + entre les étudiants eux-mêmes et entre les étudiants et le professeur ↑ et moi↑+ euh chuis plus à l'aise↑+ ça c'est vraiment euh ça se voit↑+euh eux aussi euh: là j'ai pas bien entendu mais euh il me semble que: bon ils parlent plus déjà que au troisième cours↑+ []OUAIS mon objectif c'était vraiment que + que que ils arrêtent de s'inquiéter↑+ de paniquer↑+ et qu'ils parlent ↑+ là ils parlent en continu hein↑ franchement par rapport à l'autre cours ça n'a rien à voir hein↑ ben ils parlent quoi↑+ ça fait ça fait ça donne de la fierté au professeur↑+ et puis aussi à tout le groupe parce que ils arrivent à se débrouiller en continu pendant euh fin quelque temps quoi↓ Elle aussi elle a fait des progrès + mais moins + mais c'est aussi visible Au début ses phrase étaient désordonnées + il y avait pas d'ordre + mais moi je fais plus attention ↑ + par rapport à la structure des phrases + car pour les caractères + quand on l'écrit on voit pas l'ordre + mais la structure des phrases ça reste oui ↑ + à ce niveau-là à leur niveau je pense que : + quand ils écrivent dans le : n'importe quoi dans le désordre ↑ + je pense c'est + ça sert à rien d'apprendre le vocabulaire que c'est pas : qu'on soit pas : je pense que c'est + il faut mettre une emphase sur le : au départ sur le : + la structure des phrases + 1 3 4 5 6 7 8 9 Tableau 20 : capitulatif des its portant sur les progr ès des nants CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT Rappelons que les trois critères permettant de définir le potentiel d'apprentissage relèvent de « la justesse », « la complexité », et « la fluidité » (Ellis, 2003 ; Skehan 1998 ; Guichon, 2005 ; cf. § 2.2.5). L'analyse des neufs extraits ci-dessus permet en premier lieu de catégoriser les critères énoncés par les enseignants en correspondance avec le cadre théorique. 1) Si Bai, dans l'extrait 3, considère que l'apprenante en question n'a pas fait de progrès en raison de la simplicité de la structure employée, l'évaluation s'effectue ici sur la base de « la complexité ». Les trois extraits issus du corpus Noémie (extraits 4, 5, 6) portent essentiellement sur la compétence en expression orale en continu, l'évolution des apprenants dans la compétence visée est ainsi déterminée en fonction de « la fluidité ». 2) Quant aux trois derniers commentaires (extraits 7, 8, 9) proposés par Zhao et Maria – bien que les deux extraits issus du corpus de Maria ne se focalisent pas directement sur les progrès, c'est « la justesse », notamment la pertinence de la structure qui est mise en avant dans l'évaluation des travaux écrits des apprenants. 3) Les trois critères étant tous repérables dans le corpus de l'enseignant, nous ne remarquons cependant, dans aucun des cas cités ci-dessus, une évaluation plutôt complète avec une prise en considération de plusieurs critères. Dans leur évaluation, les enseignants se focalisent sur un seul aspect. L'extrait 3 est d'ailleurs un exemple pertinent : le fait que Bai considère que l'étudiante en question n'ait pas fait de progrès est basé exclusivement sur la complexité. 4) D'ailleurs, nous remar ons une tendance de Bai (extrait 2) et de Noémie (extraits 4, 5, 6) à s'intéresser davantage à la quantité de la prise de parole indépendamment de l'exactitude du point de langue employé. Bai indique d'ailleurs de façon claire sa préférence pour le mode participation de Patrice qui, malgré la production peu satisfaisante sur le plan de la justesse, est à encourager (extrait 2). Chez ces deux enseignants, la quantité de la prise de parole, donc la participation semble un critère déterminant pour l'évaluation des progrès. Dans l'extrait 1 issu du dernier EAC de Bai, celui-ci donne un avis plutôt négatif sur les progrès des apprenants qui sont à son avis peu perceptibles.  D'ailleurs, Zhao semble conscient de l'aspect figé de leur schème d'activité. Il indique luimême que le fonctionnement de chaque séance « est plus ou moins pareil » (Zhao-EPS 10006). Noé indique que pour l'enseignement du même contenu, « il y a des choses qui vont changer » et qu'il ne va pas « forcément refaire les mêmes », cela dit, il s'agira toujours de « la même progression » et le même « squelette » (Noé-EAC 2-0086). Lors de l'EG, en répondant à la question relative aux grandes étapes du cours, chacun des enseignants participants propose spontanément une description détaillée qui correspond d'ailleurs au déroulement effectif du cours observé (cf. EG de tous les enseignants participants). 439 CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT Quant au schème d'action, donc les pratiques routinisées que l'enseignant applique et dit appliquer de façon fréquente, la participation de la conscience dans les actions routinisées est selon Léontiev (2009) minimale et ces routines s'effectuent en tant qu'outils facilitateurs de l'action consciente (cf. § 1.1). Cependant, lors du retour sur ses pratiques schématisées, l'enseignant exprime sa prise de conscience de la présence régulière de ces dernières avec les raisons qui le motivent à les appliquer : {14:58} 0056 Zhao Euh ça : de toute façon ça aussi + tout à l'heure en fait moi + euh : quand j'expliquais (赵) atteindre quel nombre + quelle hauteur + quelle durée etc.+ je donne en général aux étudiants + pour ce genre de vocabulaire et certaines : + structure de phrase + je donne en général certaines choses similaires ou comparables + parce qu'un élément isolé + ça risque d'être oublié [] (EAC 2) {00:55:34} 0088 Shan Ça c'est un peu mon habitude personnelle + euh : c'est-à-dire : euh : parce que à (姗) peu près à chaque fois à la fin il y a une partie genre 'jeu de rôle' + et puis : je trouve qu'il paraît que + c'est pas tout à fait juste de le dire + mais à l'apparence les dialogues font par les étudiants chinois sont plutôt courts + et puis parfois on a l'impression que + soudain on leur demande de faire un dialogue dans une situation ils sont pas vraiment + pas vraiment familiers avec ce genre d'exercices + donc en général je fais réécouter l'enregistrement du début de la leçon + parce que ce document parle en général des situations similaires + et puis ça permet de leur 'rappeler' un peu + euh: donc dans la leçon + ce qu'on a vu est en fait un bon exemple + ils pourraient imiter en fonction de ça (EAC 1) Les deux commentaires proposés spontanément par Zhao et Shan portent sur des pratiques considérées de leur part comme actions routinisées dans leur agir professoral (« je donne en général », « 'est un peu mon habitude personnelle »). L'application de ces routines n'est sans doute pas marquée par un niveau de réflexion élevé – information impossible à vérifier par le présent dispositif, le retour sur ces schèmes d'action sont cependant caractérisé par des marques interprétatives (« parce que ») dans le sens où l'enseignant explique les motifs de ces pratiques fréquemment mises en place à son avis. Ces commentaires interprétatifs des routines permettent d'ailleurs de justifier l'intérêt du dispositif. A vrai dire, en tant qu'observatrice et chercheuse junior, nous n'avons pas fait attention à ces deux pratiques commentées et ne les avons pas non plus associées, avant les EAC en question, à la catégorie d'actions routinisées. Si en situation d'enseignement, l'évolution de l'action enseignante dans le cas des « accidents » est aussi facilement repérable que la structure du cours, certaines routines d'enseignement reconnues par l'enseignant sujet-actant échappent cependant à la chercheuse en raison de leur subtilité et également du déroulement fluide de l'enseignement qui est exactement outillé par ces actions détaillées, technicisées et efficientisées. Il n'est ainsi pas toujours aisé de déterminer si une pratique enseignante est stabilisée non seulement en raison des limites de la vision d'une chercheuse, mais aussi en raison de la caractéristique aléatoire de la routine d'enseignement. Cette dernière ne pourrait être mise en place qu'au milieu ou vers la fin du semestre : {08:38} 0039 Enquêtrice en encore : à la fin du cours tu disais + c'est-à-dire au moment du dernier exercice + si vous avez des questions vous pouvez me les poser + ça c'est aussi la première fois que je t'ai entendu dire ça {08:50} 0040 oui Shan {08:52} 0041 Enquêtrice c'est parce que t'as vu qu'ils étaient perplexes ou bien {08:54} 0042 Shan de toute façon je vais + je vais souvent dire ça après parce que c'est comme ça + c'est-à-dire quand on fait des exercices quand l'exercice est plutôt difficile (姗) ou + le document est compliqué mais la consigne est simple +euh je suis pas trop + je suis pas trop sûre s'ils ont compris ou pas + mais je peux pas non plus : + courir derrière pour vérifier + et puis je rajoute une phrase + c'est-à-dire'si vous avez des questions + posez moi des questions' comme ça + euh cette phrase va souvent être utilisée après + quand le contenu est riche et le rythme nous dépêche + quand je trouve qu'on a pas passé beaucoup de temps à l'exercice + et je pense qu'ils ont peut-être des questions je rajouterais cette phrase (EPS 7) Le fait que Shan considère sa question de vérifier la compréhension des étudiants comme une de ses routines d'enseignement est évident : non seulement elle affirme l'apparition constante de cette pratique dans le futur, mais elle propose également des conditions générales d'application de la pratique en question qui sont d'ailleurs exprimées au présent indicatif. Ce qui est le plus intéressant ici, c'est que Shan présente des critères nécessaires, voire déclencheurs, pour mettre en place cette routine, circonscrit s dans son discours par toutes les propositions commençant par « quand ». Ainsi, l'aspect technicisé des pratiques routinisées transparaît ici : si tout outil vise à la réalisation d'une action/activité contextualisée, l'action routinisée en tant qu'outil facilitateur du travail d'enseignement, dépend aussi du contexte. Autrement dit, elle ne prend son sens que dans les circonstances considérées par l'enseignant en question comme pertinents pour l'appliquer. De ce fait, toute pratique observée comme nouveauté peut être révélée par l'enseignant comme une de ses routines d'enseignement. Toute routine d'enseignement disponible dans le répertoire didactique de l'enseignant n'apparaît pas toujours, pas tout de suite ou même pas du tout dans le contexte observé. Cela confirme à nouveau la complexité de la pensée enseignante qui rend illusoire toute tentative de la connaître en entier. Les connaissances enseignantes, tout comme une boîte à outils, ne se manifestent qu'avec l'outil ou les outils jugés comme pertinents CHAPITRE 10. VERS UNE THEORISATION DE L'EVOLUTION EN TANT QUE ROUTINE DU METIER D'ENSEIGNANT dans/pour la situation en question. Dans cette logique, une théorisation de la routine d'enseignement contextualisée remet en cause le statut même de la routine du fait que son apparition n'est pas garantie à chaque intervention de l'enseignant. La mise en place de la routine en discontinu en raison de sa dépendance du contexte est un exemple parfait pour justifier à quel point la pensée enseignante est liée à la réalité situationnelle. Détecter ce qui est effectivement stabilisé semble ainsi moins aisé que saisir l'évolution. Un schème d'action, parfois non-identifiable pour un observateur extérieur, n'apparaît pas nécessairement dans un contexte donné. Quand l'évolution est une caractéristique inhérente à la pensée enseignante, ce qui est stable et stabilisé paraît difficile à déterminer – toute pratique est susceptible d'évoluer. L'enseignant développe, adapte et actualise sa manière de faire en fonction de sa perception du contexte qui, construit à partir d'un cadre stable, possède une dynamique qui lui est singulière et qui met l'enseignant en face d'imprévus. L'évolution de l'agir professoral n'est cependant pas toujours motivée par des éléments externes ; Mann (2006), dans sa définition du d enseignant, met d'ailleurs l'accent sur l'initiative de l'enseignant dans son développement professionnel.
16,587
02/hal.archives-ouvertes.fr-jpa-00241133-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,562
2,756
La pression hydrostatique et les deux équations d'état de la couche capillaire Gerrit Bakker 1906 - Ine variation sinusoïdale satisfaisant à l'équation la condition d'équilibre dans le fil est Il = Cte. La fonction sinusoïdale, oscillant entre 11, et zéro, sera puisque D'où Si.~ devient grand par rapport négligeable par rapport à :1:, est très Les deux u. = hypothèses sur à a, et l'on l'intégralef cos 21t ~ clx a a encore la loi de variation de H nous donnent,t. La fonction de u à rendre maxima devient : Le maximum est obtenu pour U2 = ;2' Le rapport des unités, h, est l'inverse de la vitesse it de propagation des ondes. LA PRESSION HYDROSTATIQUE ET LES DEUX ÉQUATIONS D'ÉTAT DE LA COUCHE CAPILLAIRE ; Par M. GERRIT BAKKER. l'r"~'.v,vrrm ~~~~y'~yLtl~l~rjlr~' rtW 'riltZl~ (( lt~ s'tlï'~1C;8 de la ~Otl~~z~ § 1. La phase homogène d'un fluide à une température ca~~tllccir'~,y' ~. - - donnée est déterminée à l'état d équilibre par la la relation entre 1&#x3E; et?, s'appelle spécifique v ; pressionp et le volume l' éqitatioiz d'êtai. (1) Nous supposerons comme toujours que la couche capillaire est phnc qu'elle se trouve entre les phases hOll1ogènes du liquide et de la vapeur. Nous avons vu que la pression ell ieiz ~~~~~~tt l~~teriezco de la couche capillaii-e dépend de la direction,'&#x3E; ; par suite. l'état d'équilibre d'un point de la phase homogène, couche capillaire n'est pas, comme celui d'une déterminé par la densité et une pression unique. On peut démontrer de la manière suivante que la pression hydrostatique est maxima normalement à la couche capillaire, minima parallèlement à celle-ci, la valeur maxima étant la même pour tous les points de la couche et égale à la pression de la vapeur saturée A cet effet, adoptons un système d'axes de coordonnées rectangulaires, l'axe des z étant normal à la surface de la couche capillaire. Soient Pxx, ~~~t,, Piz, les pressions connues de la théorie de l'élasticité ; lorsqu'on fait abstraction des forces extérieures on a : Dans la direction des axes des x et des y, le priétés de la couche capillaire est nul ; donc : phases homogènes qui donc, en un point 2. Pression - pzz = = pl limitent la couche pression de la couche Cte = pz= ~ = pxx - p~-3-, des pro- par suite, et Dans les gradient = capillaire, de lu B;1 PPUl' saturée capillaire, pression on a = on a : p, ; aussi : de la vapeur saturée. hJdros~ali~2~e parallèle ri la surfaCe de la cotiche -':. capillaire. - Si l'on représente par - fer la force attractive de r deux éléments de volume placés à la distance r, on trouve pour les cohésions S, et S2 respectivement normale et parallèle à la surface de la couche capillaire ('-') : et Dans (1) (2) ces J. de J. de expressions, Phys., Ph!ls., 3e 3e V est le potentiel série, t. IX, p~00 ; 1900. série, t. IJ~, p~00 ; 1900. des forces d'attraction Il différentielle de l'élément de normale h à la surface de la cuucl ~ capillaire. Dans t &#x3E;it= direction, la pression hydrostatique est la différence entre la pi~&#x3E;;siuii thermique li et la cohésion S : d' 0 il " 1) : A constante ; donc on aura la en pression y, de la vapeur saturée est différentiant '2B: soit,L le potentiel thermodynamique sité égale à celle du point considéré que l'on a ~2) : une d'une phase homogène de dende la couche capillaire; on sait l'indice 1 se rapportant à la phase homogène liquide. En éliminant d2V entre les uant que. (3) et et (4),!.'il1 vient en remar quc '?;~~'î.~-' -.(j remarquant -y-~ dh~ l,équations est le coefficient de la pression moléculaire de Laplace 31 : 1 Si l'on remarque que la pression thermique 0(-*) donne : on a : (1).J. le 1&#x3E;hi/s., k° série, servant de la fonction ° t. '1, p. 108 : 1902. potentielle - ~' ~_~u. ~-- Par erreur, il y est écrit : ~ SUtf ~l~tl)~ r',i~((~ti~'r P » « en se r~r~m i ~rlc~, ~Il, fautt'italiques ~BJ l I, j&#x3E;. li&#x3E;1l ~~'tn . t . 1~', I~. 1~ (~) J . t~ "l'rit', t 1. p. III" '~Olr 8ll ~~ 1 ~ ~'~t *~ IW. ~lll' yJt~S. ~~jtr'mr 1-~~ E~ 3'série, t. B'111. 11 t*S:1894. En adoptant la formule de Van der ii'aals pour la pression ther- D ~T mique. ~ - ~RT d'où par suite z-b FiG.l. Or j'ai démontré.11'; capillaire signe que ~ (1) que 1 comme v == on a : 2013~ est négatif pour tout point de la couche s'ensuit.6/~ dÉ &#x3E; ~A, "l' il p 0; r/n~ 2013' a ~A d 1 donc le même ~ u. 2013 (1-,. (considérons l'isotherine théorique de James Thomson et la partie rectiligne de 1"isotlieriiie réelle I4K. Soit F le point qui satisfait à la condition : surface NHCMN Aux (1) points H, K.~o~tale~t clen et I'h~fsik, = surfcu - 1.1",_il 1,. F, le potentiel thermodynamique 4" série, t. XVII. p. 411 et 18: 1905. a la même 554 valeur -L, : par est Ù'densité conséquent, 1 1'Ù. identiqu' aux points de la couche capillaire el?~.,,les point, des et F. points lM.J 1K~ 1,, ~ )ci où la = o. 0. Considérons la /Ig, r; (pu représente la variation en fonction de h de la pression P2 parallèle à la surface de la couche capillaire. AB représenta 1'paisseur de la couche capillaire ; en A et B, on doit avoir 1). i Pt - AR - BS. Le point correspond au point F de l'isotherme Entre R théorique, car dl; 0. il doit y avoir un point d'innexton 1; entre S et Q, Y. d'inflexion point La constante capillaire H, de Laplace étant donnée, comme je l'ai montré ~'~ par la relation : il y a est un et Q autre représentée par l'aire Rl'(.~~'Sl~. Je dis que cette aire équivaut à la rectangle RU~'S. En effet, soit p la pression correspondant point F de la fig. 1 (point Q de la lîg. 2) j'ai trouvé la relation (2) : moitié du au p3 étant la valeur minima des pressions p.,. De plus, on a (3) : Il s'eusuit : dt'ln1ontre la proposition énoiicée plus haut. Les de2~4~.1 e'quations d'état de la couche ccryitlcci~-e. - Si on veut rattacher les propriétés de la couche capillaire à celles de l'isotherme théorique, il ne faut pas exprimer ~_, en fonction de IL, mais, qui ce ; au :L - cuntraire en fonction du volumo spécifique v - 1 ;, c'est ~ (t) J. de (2) J. tif' (3) J. l' 1 ~~, t. 1 B. l' ¡II; 1,.()o. t. N, p. IL~4 ~I~~quation 1 II'. t" "-/ lIt'. t. Il, p. 358 (14a)J ; 1906. [équation ~7)]; 1903. e ce que 555 allons faire maintenant. Des nous D autre part, on en a, i ~ et'i a', expressions adoptant pour 9 l'expression on tire : de Van der Waals : -- d'où, en migrant par parties, homogène du et l'indice 1 rapportant se à la phase liquide : Remplaçons dans (i0) V par sa valeur en fonction de v et remarquons que : il vient : A température constante, existe entre P2 et v. Si l'on représente les deux vapeur saturée par l'état d'un par (1 i) point à l'équation t11 ) donne la relation phases homogènes du liquide l'équation classique de Van der NN'aals : l'intérieur de la couche capillaire qui et de la est donné et par pf = Cte = pression de la vapeur saturée, la première équation se rapportant à une direction parallèle, la seconde à une direction normale à la surface de la couche capillaire. On pourrait refaire les calculs précédents en utilisant les équations d'état de Boltzmann, Reinganum, van Laar et Jaeger. L'équation (11) ne se prêtant pas facilement à la discussion, nous allons étudier directement les quotients dilfé&#x3E;rentiels d¡P'2 2013~' et ( b (IV 556 L'équation CI P, ~~p3 d t~ nul f~ '- a 1 même le d donc aux pour les '1. signe'que ~ li,2 2013~7 -1 s"ensuit que u, ; il ~ ( t'.'- '' qui est points 11, F et lk de l'isotherme théorique (fig. 1, est négatif points compris entre Il et F et positif pour les points com- et K. Différentions les deux membre, de pris entre F (12), il vient : Aux UX pOInts 1&#x3E; de 11";Ot '.lerme '1 ttliéorique ¡c-g. points G et leorlque (fig. B 1)),d dup =:z == o, 0,.) = 2,clp Aupoint(;',!J., -1). qui représente y., en'1 &#x3E; o, donc c( 1.'2~' ~ o. La courbe lIiNi'Uli fonction de v j/qy. 1) est donc, en V, convexe l'axe des volumes. ()r, en 11, la tangente à cette courbe doit être parallèle à l'axe des volumes ; la courbe a donc un point d'inflexion entre Il et V. On démontre pareillement que la courbe a encore un point d'innexion entre ii et U. Rappelons d'ailleurs que l'on a NVF - FS (1), ce que l'on peut voir immédiatement en remplaçant dans (10) 0 par p + aç=, et en remarquant que pour un point de la couclie capillaire ayant même densité que le point F (fig. 1 '), V =_. - 2a p. En effet, pour tous les points de la couche, on a (2) : vers or, au.
19,261
2006TOU20114_11
French-Science-Pile
Open Science
Various open science
2,006
Urbanisation et urbanisme des petites villes en Chine
None
French
Spoken
6,998
10,253
200 100 0 PIB 3 000 4,8 4,6 4,4 4,2 4 3,8 yuans 300 millions de yauns millions de yuans Graphique 35 : L’évolution du PIB, des recettes financières et revenu brut annuel des paysans à Xiage 2000 2 000 1 000 2001 0 recettes f inancières 2003 rev enu brut annuel des pay sans a. Le secteur primaire orienté vers l’agriculture spéciale L’agriculture est toujours le secteur pilier de l’économie locale. Ces dernières années, la mairie a pris des mesures en fonction des conditions locales pour développer vigoureusement l’agriculture périurbaine. Les champs de riz de qualité s’étendent sur une superficie de 12 km2 et ceux de colza sur 11,7 km2. Le taux de couverture des meilleures espèces est de plus de 95%. En 2003, la valeur agricole globale a atteint 56 millions de yuans, avec un taux de croissance de 7% par rapport à 2002. Sur le développement du secteur primaire, la mairie oriente vers le marché, incite les paysans à modifier la structure et disposition agricole et à augmenter le poids des cultures industrielles et les aide à optimiser les espèces pour suivre une voie convenant au développement de l’agriculture locale. i. La culture maraîchère La mairie a introduit Nouvelle Conception Alimentaire S.A. et créé une base de production des légumes non pollués. 3,3 km2 de champs ont déjà passé l’autorisation « non polluée » du comité agricole et du bureau de protection de l’environnement de la province d’Anhui. En servant l’intermédiaire, elle a créé des occasions pour entreprendre la production de commande pour assurer la rentabilité des paysans. ii. L’aquaculture 245 - Thèse : Urbanisation et urbanisme des petites villes en Chine Comme Xiage est riche en ressources hydrauliques, la mairie a aidé les paysans à exploiter minutieusement 2 km2 de superficie en eau pour développer l’aquaculture. En même temps, les paysans locaux utilisent les réseaux pour enclore « des étangs poissonneux » artificiels et cultiver des poissons de qualité dans les rivières Xiage et Zhegao. Les habitants qualifient cette forme de pisciculture de « culture de coffre des réseaux ». Maintenant il y en a environ 2 300. La production annuelle d’aquaculture peut atteindre 2 600 tonnes. Cette technologie élève sensiblement le revenu des paysans locaux, en 2000 le bourg a donc été cité en exemple d’unité d’avant-garde dans l’arrondissement Juchao. iii. Les fleurs et plants en pépinière À Xiage, un terrain de 33,3 ha est mis en place pour cultiver les fleurs et les plants en pépinière. Des espèces de qualité, telles que rose de Notre-dame et rose de Chine, sont introduites. En conséquence, le bourg devient plus beau qu’avant. iv. L’élevage Ces dernières années, les paysans locaux ont augmenté l’investissement quantitatif en élevage, leur revenu s’est ainsi élevé. v. la sylviculture et l’arboriculture Dans les régions montagneuses, une zone de 80 ha est destinée à la sylviculture et l’arboriculture. L’introduction d’espèces telles que le figuier, le châtaignier, le jujubier... a agrandi la source de revenu. De plus, l’environnement local s’est ainsi amélioré. Le long de l’autoroute Hechaowu, plus de 50 000 arbres proviennent de cette zone. Sous la direction de la mairie, l’agriculture est déjà devenue une clé du développement local. Mais même si l’on voit clairement l’effet et le progrès du développement à travers la modification et l’optimisation de la structure de l’agriculture, on peut également mettre en évidence certains problèmes : § L’infrastructure de l’agriculture est en retard Maintenant la mairie se consacre à l’augmentation de la capacité de production agricole mais l’infrastructure agricole semble encore en retard. A cet effet, isation et urbanisme des petites villes en Chine il faudrait agrandir l’investissement depuis les recettes financières du bourg pour accélérer le processus d’industrialisation agricole, et notamment les investissements en infrastructures agricoles, telles que la facilité du transport, les installations hydrauliques et transmission du courant et la condition sanitaire des marchés, et à la construction du centre de recherches et de généralisation des avancées de la science et des technologies agricoles, etc. Parallèlement on pourrait chercher une nouvelle forme d’assurance agricole et renforcer la protection de la production agricole et l’intérêt des paysans, pour baisser les pertes des paysans et les risques de gestion des entreprises agricoles dus aux calamités naturelles. § La qualité globale des paysans reste à augmenter La science et la technologie ont accéléré le progrès social dans tous les domaines. Le niveau de mécanisation dépend directement du développement agricole. Mais le bas niveau de connaissances des paysans locaux est déjà devenu une forte contrainte pour la croissance de leur revenu. Donc en fonction de la situation présente, la mairie devrait donner des formations régulières aux paysans sur la nouvelle technologie agricole, l’économie de marché et la structure rationnelle agricole. En même temps, par rapport aux caractéristiques locales, on devrait organiser des visites dans les bases pilotes agricoles provinciales ou municipales pour améliorer leurs connaissances, technologies et compétences de la production agricole. § Une grande proportion de paysans Le revenu des paysans locaux est relativement bas à cause d’une grande population agricole. Donc on doit effectivement transformer la main-d’œuvre rurale pléthorique en secteurs secondaire et tertiaire de façon à promouvoir l’urbanisation locale. b. Le développement du secteur secondaire semble désordonné Dans la région de Chaohu, la base du secteur secondaire semble retardataire, aussi Xiage n’est pas une exception. Bien sûr, la mairie cherche par tous les moyens à mettre en œuvre le potentiel du bourg. Ces moyens se divisent principalement en 2 domaines : l’exploitation minière et le développement du parc des petites villes en Chine industriel. Bien que beaucoup de problèmes existent encore dans le secteur secondaire, ces dernières années, l’industrie locale a obtenu un certain progrès : en 2003 elle a réalisé 233 millions de yuans de valeur globale de la production industrielle, dont l’économie privée et individuelle constitue un poids important. § L’exploitation minière – agrandir la taille d’entreprise, compléter la chaîne du secteur et la protection environnementale Au nord de Xiage, c’est une région montagneuse qui recèle de plein de dolomite. L’exploitation de cette mine est devenue la source principale des recettes fiscales locales en industrie. Avant, des ateliers avec des effectifs de moins de 50 personnes s’occupaient de ce secteur. Après le traitement, une partie de la dolomite sert de matériaux de construction, l’autre partie est transportée à Maanshan 39 comme catalyseur. Mais comme ces ateliers ont été organisés par le bourg ou les villages, l’investissement était limité. Donc la capacité de production semblait petite, la valeur de production était naturellement petite. Pendant une dizaine d’années, ce secteur s’est développé aveuglément. Dès le IXème Plan quinquennal (1995-2000), avec l’approfondissement de « la Réforme et l’Ouverture », la mairie a réussi à contribuer à l’investissement de l’entreprise de dolomite de Maanshan avec les ateliers locaux. En même temps, certaines entreprises privées de Hefei ont fixé leur choix sur ce secteur et sont devenues actionnaires, une grande entreprise chimique Jianlongsheng a été formée en 2001, les capitaux d’enregistrement parviennent à 5 millions de yuans. Au fur et à mesure de l’agrandissement de la taille d’entreprise, l’effectif et la rentabilité ont augmenté dans une mesure différente. En 2001, ses impôts ont atteint 16,8 millions de yuans. Pour développer l’industrie et davantage jouer son rôle d’agglomération, la mairie a réquisitionné 26,7 ha de terrains autour de cette entreprise pour créer un parc industriel Luosigang. A l’heure actuelle, la 39 Maanshan est une ville sidérurgique renommée dans la province d’Anhui au bord du fleuve du Yangtsé en face de Nanjing (chef-lieu de la province du Jiangsu). des petites villes en Chine construction d’infrastructure est déjà finie et des entreprises telles que des entreprises de matériaux de construction s’y sont implantées. Ce secteur est en développement, surtout pour l’augmentation des recettes financières locales et la solution de l’emploi de la main-d’œuvre pléthorique. Cependant il subsiste encore beaucoup de problèmes à résoudre. D’abord, jusqu’à maintenant, mis à part l’entreprise chimique Jianlongsheng, la taille des autres entreprises minières est petite, le retard d’équipement restreint leur développement. Donc l’importation des capitaux extérieurs et l’agrandissement de leur envergure sont des affaires urgentes. Ensuite, en face de cette seule ressource de Xiage, il faut tout faire pour déployer pleinement son avantage. Mais l’exploitation de matières premières est seulement la première procédure de la chaîne de ce secteur. Les transformations grosse et fine, l’enveloppe des produits et le transport deviendraient l’orientation du développement futur. C’est seulement en complétant cette chaîne qu’on peut créer plus d’occasions. Finalement, ce secteur a entraîné une certaine pollution de l’environnement local d’air et d’eau. Donc il faudrait accorder de l’importance à la protection écologique pour pousser le développement durable. § Le « grillage avec le sucre » l’orientation du secteur pilier Dans le but de développer des entreprises privées et individuelles, la mairie a mis en place 2 parcs industriels (26,7ha et 40 ha) le long de l’autoroute Hechaowu mais à cause de la faible base d’industries locales, les entreprises implantées semblent relativement médiocres en qualité et en quantité. Parallèlement ces entreprises sont très différentes, c’est difficile de créer un secteur pilier potentiel. A cet égard, la mairie a toujours cherché un moyen de dynamiser le secteur secondaire. En fait, le grillage avec le sucre est une technologie spéciale locale et donne pas mal de profits à des habitants travaillants dehors. Pourquoi la mairie ne peut pas bien en profiter ? Xiage dispose de divers produits agricoles, à travers un traitement efficace, on peut certainement inventer des spécialités alimentaires des petites villes en Chine locales. Par exemple, à Wuhu pendant les années 1980, en employant cette technologie une entreprise a lancé une nouvelle graine de melon qui s’appelle « la graine de melon d’imbécile ». Grâce à son goût particulier, elle a rapidement reçu un bon accueil du public aux différents endroits du pays et est devenue une collation célèbre. Elle a apporté une grande rentabilité et gagné une belle réputation. De tels exemples sont trop nombreux pour être énumérés. En tant que lieu d’origine, Xiage devrait posséder plus d’avantages. La mairie devrait agrandir l’investissement dans ce domaine et organiser les artisans locaux pour engager l’innovation scientifique en fonction de la situation locale de façon à créer des spécialités. Si cet effort pouvait être couronné de succès, la situation économique actuelle serait entièrement redressée. c. Le secteur tertiaire reste à développer Comme la disposition démographique semble très éparpillée, la superficie du quartier urbain est de moins de 1 km2. Et le revenu des habitants est bas, en général, ils n’achètent que des articles quotidiens. Le secteur tertiaire demeure sensiblement en retard. Les habitants locaux gardent encore leurs habitudes de la compagne, même si une partie d’entre eux se sont installés dans le quartier urbain. Ils ont l’habitude d’aller au marché dans la matinée. Donc avant 9h du urbain matin, est fréquenté, le quartier toujours les très habitants amènent toute la famille pour s’y rassembler. Ce n’est qu’à ce moment que les affaires des boutiques le long de la route marchent. Mais pendant les autres moments, sauf des épiceries, les autres ne fonctionnent pas, il n’ y a parfois aucun client qui passe par leur boutique. (Voir l’image ci-contre). Le commerce de détail stagne, la restauration marche aussi au ralenti. Selon l’enquête, la plupart des habitants mangent chez eux, à moins qu’ils invitent des amis. Certes, ce phénomène touche aussi la vie quotidienne de Xiage. En dépit du retard du secteur tertiaire, il existe pas mal de potentialités. D’une part, selon la planification à long terme de la ville Chaohu, Xiage deviendra un bourg satellite pour attirer les habitants de Chaohu. Cela apportera des potentialités de développement pour Xiage. Dans les années à venir, l’immobilier pourrait être une force motrice du développement du secteur tertiaire local et entraînerait nécessairement les secteurs concernés. D’autre part, le village Zhuke relevant de Xiage est le village natal du célèbre général patriotique FENG Yuxiang. En 1988, le gouvernement d’Anhui et de Chaohu a alloué des crédits spéciaux pour rénover son ancienne demeure. Le salon est destiné à l’exposition de sa biographie par des images et des textes. Au sein de la cour intérieure, sa statue en granit se dresse. Ce serait une base idéale de patriotisme. Par manque de visiteurs, à l’heure actuelle, le site est couvert de mauvaises herbes. (Voir l’image ci-dessus). On pourrait rejoindre les sites touristiques de la ville Chaohu pour revaloriser sa fonction touristique. d. L’économie d’exportation de main-d’œuvre L’économie d’exportation de main-d’œuvre est un moyen de croissance du revenu des paysans dans les régions du centre de la Chine, à Xiage son effet est particulièrement sensible. En 2003, il y avait 8 500 jeunes qui travaillaient en dehors de Xiage, ils ont réalisé 60 millions de yuans de revenu global, largement supérieur au revenu moyen des habitants locaux. En général, après avoir travaillés en dehors pendant 3-4 ans, ils retournent à Xiage, font construire leur logement dans le quartier 251 - Thèse : Urbanisation et urbanisme des petites villes en Chine urbain et donc obtiennent l’état civil non agricole. De cette façon, leur famille s’installe avec eux et leurs enfants ont le droit de recevoir l’éducation urbaine. Pour gagner leur vie, ils ouvrent une boutique au rez-de-chaussée de leur maison ou travaillent dans des usines locales. C’est une modalité typique du développement urbain dans les bourgs du centre de la Chine. Normalement, les habitants partent travailler par groupe, il manque de gestion rationnelle, donc il existe aussi des exemples d’échecs. Face à cette situation, en 2002, la mairie a créé une entreprise de services des affaires. Elle se charge de donner des formations technologiques et d’organiser leurs déplacements. En même temps, elle fournit les services sur l’état civil, l’assurance, la circulation des champs40... afin de maintenir les droits légitimes. De plus, la mairie a aussi lancé des politiques favorables, telles que la réduction ou l’exemption des impôts durant une période voulue et la réduction de la valeur des terrains, pour encourager les hommes d’affaires originaires du bourg qui font florès en dehors, par exemple les familles influentes de grillage avec le sucre, à revenir créer des entreprises, de façon à stimuler le développement de l’économie locale. Ces dernières années, cette action a obtenu un certain succès. VIII.8.2.3. Des questions relatives au développement urbain a. Les voies de financement Comme les recettes financières annuelles de Xiage sont petites, les capitaux limités de la construction urbaine sont toujours un goulet d’étranglement du développement. Maintenant la construction d’infrastructures locales dépend principalement du prêt de la banque, des crédits du gouvernement supérieur, du fonds spécial provincial, du profit de location des terrains ou de la cotisation des paysans. Ces dernières années, la mairie est criblée de dettes. On doit donc tirer profit des expériences de développement dans des régions développées. On pourrait 40 D’après les règles, en même temps qu’un paysan obtient un état civil non agricole et devient un citadin, il doit abandonner ses champs originaux à forfait. b. La localisation du développement urbain La mairie s’efforce toujours de construire un bon environnement local pour attirer les investissements et ainsi mettre en valeur son potentiel. Mais son idée du développement semble trop localisée, il ne s’intègre pas dans le schéma directeur régional. Selon le schéma directeur de la province d’Anhui, Chaohu sert d’arrièrecour de Hefei (chef-lieu de province), elle profite du paysage du lac Chao pour fournir une bonne zone d’habitation aux habitants de Hefei. Et selon le schéma directeur régional, Xiage sera un bourg satellite de Chaohu. Donc au cours du développement, on pourrait gagner plus d’activités selon la planification de Chaohu, voire de Hefei. Par exemple, Xiage est une base de traitement de certaines matières premières, on pourrait implanter des entreprises agricoles, chimiques, de matériaux de construction, etc. D’une part, les activités d’envergure pourraient se développer rapidement pour entraîner les secteurs correspondants de façon à stimuler l’emploi local. D’autre part, le développement des secteurs apporte nécessairement le déplacement démographique, cela pourrait apporter une grande contribution au développement du secteur tertiaire. C’est seulement par l’intégration de l’environnement régional que Xiage mettra en valeur son potentiel. c. Le problème de pollution de l’environnement 41 BOT est une abréviation anglaise de « Building – Operate – Transfer », c'est-à-dire le gouvernement confie les travaux d’infrastructures aux entreprises sur contrat forfaitaire. Jusqu’à un certain terme, les entreprises se chargent de la conception, du financement, de la construction. Pendant l’opération, elles peuvent récupérer le coût, paient la dette et gagnent le profit en faisant payer le prix d’utilisation. Quand le terme se termine, elles doivent rendre le droit de possession au gouvernement. TOT est une abréviation anglaise de « Transfer – Operate – Transfer », c'est-à-dire le gouvernement livrent le droit d’opération de projet d’infrastructures construites aux entreprises sur contrat, donc il peut obtenir une somme pour financier d’autres travaux d’infrastructure. Les entreprises peuvent tirer le prix d’utilisation pendant une période voulue. Après le terme, ce projet doit être rendu au gouvernement. A présent, le développement est la tâche urgente de la mairie. Pour rechercher des succès rapides et des avantages immédiats, elle permet tous les projets. L’environnement local est pollué dans une certaine mesure. On peut voir des ordures partout dans le bourg, la mauvaise condition sanitaire est la cause principale de la grippe aviaire. La contamination d’eau, d’air et du bruit dérange, la construction et la production ont gravement dérangé la vie des habitants. Donc il faut accorder de l’importance à ces effets négatifs et y remédier à temps pour éviter de saper les progrès durement gagnés. VIII.8.3. Conclusion Xiage est un typique bourg agricole du centre de la Chine, son évolution démographique dépend du solde naturel et manifeste une tendance à la hausse. Il se trouve dans une région relativement pauvre et le développement urbain est à l’état embryonnaire. Actuellement, la plupart des habitants locaux s’occupent encore de la production agricole. Sous la conduite de la mairie, l’agriculture locale, comme un secteur directeur, est en train de se développer vers l’industrialisation agricole. Mais à cause d’une grande population agricole et de leur bas niveau de connaissances, le revenu des paysans semble bas, même s’il a obtenu certains progrès ces dernières années. Pour gagner leur vie, une partie des jeunes quittent leur pays natal et prennent une voie d’exportation de main-d’œuvre grâce à la technologie spéciale locale : le grillage avec le sucre. Le développement local du secteur secondaire et tertiaire manifeste une situation relativement anarchique. Certes, la mairie s’efforce de construire un bon environnement pour pousser leur développement. Mais des problèmes, tels que les voies de financement, l’intégration du développement régional et la pollution environnementale, doivent mériter notre attention pour éviter les effets négatifs. VIII.9.1. Situation actuelle Bourg Zhegao est un des 4 bourgs historiques dans la province d’Anhui, il possède une histoire d’environ 3 000 ans. Sous le règne des Zhou Occidentaux (1100770 avant J. –C), il était le capital du fief d’un feudataire. Par la suite pendant une période assez longue, il était toujours une place forte, donc beaucoup de guerres s’y sont produites. Pendant les dernières années de la dynastie des Ming (vers 1644), grâce à sa bonne localisation, il naturellement abritait diverses concentrait de foires et nombreux habitants. Progressivement, il est devenu un bourg important dans la région du lac Chao. Après la fondation de la Chine nouvelle, à travers une série de changements administratifs, en 1995, il a été élu bourg pilote de la réforme synthétique au niveau provincial pour la première série 42 et a bénéficié de politiques favorables sur l’administration, les finances, la construction urbaine, la gestion des terrains, l’assurance sociale, etc. pour son développement prioritaire. En 2000, il a été classé parmi les 100 premiers forts bourgs en Anhui et a été élu bourg vedette à Chaohu. § En administration 42 Ces bourgs pilotes totalisaient 63 dans la province d’Anhui . Thèse : Urbanisation et urbanisme des petites villes en Chine En administration, le bourg Zhegao relève de l’arrondissement Jichao de la municipalité de Chaohu dans la province d’Anhui. Il est le bourg le plus étendu et le plus peuplé dans l’arrondissement, sa superficie totale a atteint 109,74 km2, dont 65,19 km2 de terres labourées (59,40%) et 15,55 km2 de superficie d’eau. Il a sous sa juridiction 18 villages administratifs, 401 comités de villageois et 4 quartiers urbains. En 2001, sa population totale est de 58 494, dont 16 032 de population urbaine, soit un taux d’urbanisation de 27,41%. La densité démographique est de 533 personnes par kilomètre carré (Voir la carte). § En géographie Situé au milieu de la province d’Anhui et au nord du lac Chao, en géographie, il a une bonne localisation. Au nord il est limitrophe des bourgs Suwan et Zhaoliu, à l’ouest il borde le canton Miaogang et le bourg Tongyang, au sud il est lié aux bourgs Zhonghan et Xiage, à l’est il est à côté du canton Banqiao. Il est à 24 km au nord-ouest du chef-lieu de l’arrondissement de Juchao, à 48 km à l’ouest de Hefei (chef-lieu de la province d’Anhui) et à 137 km à l’est de Nanjing (chef-lieu de la province Jiangsu). Il a un transport commode, la voie nationale n°312 et la route Chaozhe se croisent ici. L’autoroute Hechaowu traverse le bourg et met en place un échangeur à Zhegao. Il structure donc la seule voie de la région occidentale au delta du Yangtsé. Son transport par eau est aussi commode. La rivière Zhegao traverse le bourg, qui est navigable du cargo de la classe des 500 tonnes toute l’année. En suivant cette rivière et en traversant le lac Chao, vers l’ouest on peut aller à Hefei et vers l’est naviguer le long du fleuve Yangtsé. Ces avantages jettent une base solide pour son développement. § En image urbaine Ce bourg a un relief plutôt faible et le climat est agréable toute l’année, ce qui convient à la culture agricole. Grâce à sa bonne localisation, les gens veulent venir y échanger des produits agricoles et subsidiaires, donc depuis longtemps il a obtenu le surnom de « perle du commerce au centre d’Anhui ». Cette tradition se transmet jusqu’ici. Il est un centre régional de distribution des produits agricoles et des petites villes subsidiaires. De nombreux marchés structurent le quartier urbain. Chaque matin, ces marchés sont très animés puisque les habitants locaux sont habitués à aller au marché. Il paraît que les gens s’y bousculent surtout pendant les jours de congé ou de foire. Mais après midi, les visiteurs et petits marchands partent, tout le quartier urbain se remet en calme. La condition des marchés locaux semble insuffisante pour la fréquence, en particulier en stationnement, les embouteillages du transport de transit sont nombreux. Bien sûr, ces installations doivent être améliorées dans une forte mesure. En outre, il y a un ancien quartier urbain (2,5 km2) à Zhegao qui a conservé deux rues historiques qui sont la seule preuve du bourg historique millénaire à l’heure actuelle. Beaucoup d’habitants mènent une vie tranquille de génération en génération. Des rues dallées qui aboutissent au fond de ruelles arborent un air de simplicité antique. Les constructions en bois conservent le style des dynasties des Ming et Qing, surtout les 4 tours d’un pont. (Voir les images). Par manque d’argent pour la restauration et la planification d’ensemble, une partie des maisons ont été détruites. La construction sans permission est devenue un autre problème qui dérange l’atmosphère d’ensemble. Il est nécessaire de l’aménager de façon à conserver cet héritage. Depuis les années 1990, la mairie a investi une grande quantité d’argent pour l’infrastructure, l’environnement urbain s’est beaucoup amélioré, la superficie du quartier urbain a augmenté à 5 km2, mais à cause de l’aménagement en partie, l’image urbaine globale semble en désordre et n’a pas formé d’identité urbaine. VIII.9.2. Analyse VIII.9.2.1. Une population totale fluctuante ces dernières années En général, grâce à la grande richesse de produits et aux facilités de transport, la population totale de Zhegao a gardé une tendance à la hausse rapide pendant une période longue avant « la Réforme et l’Ouverture », malgré des péripéties43 (cf. graphique 36). Graphique 36 : L’évolution démographique depuis 1949 évolution de la densité dém ographique évolution de la population totale 120 000 109 520 99 139 100 000 600 547 112 110 88 048 429 80 000 74 177 63 529 64 669 439 387 400 60 000 533 565 500 345 58 494 300 59 977 62 000 40 000 290 200 20 000 249 253 100 1949 1959 1961 1964 1973 1982 1990 1997 2001 2003 1949 1959 1961 1964 1973 1982 1990 1997 2001 2003 Après « la Réforme et l’Ouverture », avec l’essor des entreprises rurales, la population totale a maintenu cette tendance. En 1992, 3 cantons ont été individuellement décomposés, la population totale de Zhegao a ainsi diminué dans 43 Vers 1958, à cause du mouvement du « grand bond en avant » (dayuejin) et des calamités naturelles graves, les réserves de grain sont insuffisantes, la vie des ruraux est misérable. urbanisme des petites villes en Chine une forte mesure et la superficie a décru à 109,74 km2. En dépit de la modification administrative, la densité démographique est en hausse stable. Comme il est un centre économique et culturel de la région du nord de la ville Chaohu, en 1995, il a été élu un des bourgs pilotes de la réforme synthétique au niveau provincial. L’investissement en infrastructures a donc été assuré, le cadre de vie s’est amélioré et beaucoup d’habitants qui vivent dans les bourgs ou cantons aux alentours voulaient y habiter et y travailler. A ce moment-là, Zhegao est devenu un lieu de rêve dans le cœur des habitants voisins. En 1997, la population totale a augmenté à 59 977, soit 547 habitants/km2 de densité démographique. Au fur et à mesure de l’approfondissement de l’économie de marché, la majorité des entreprises rurales locales sont sur le déclin à cause du retard de la conception de gestion et des équipements démodés. Une grande quantité de dettes ont fait couler ces entreprises et leurs employés étaient donc au chômage. Car Zhegao se trouve dans une région relativement pauvre, il est difficile de créer beaucoup d’emplois pour les accueillir à court terme. Une petite partie des chômeurs sont obligés de retourner travailler dans les champs. Pour gagner leur vie, la plupart des chômeurs sont partis ailleurs chercher un emploi, les régions relativement développées tels que Shanghai, Jiangsu et Zhejiang deviennent naturellement leurs destinations. En conséquence, depuis 1997, Zhegao a commencé à perdre des habitants. Certes, la mairie a pris divers moyens pour relever l’économie locale et obtenu un certain progrès, des entreprises ont réussi à changer leur système et à retrouver un regain de valeur. En même temps, la prospérité des marchés a attiré les habitants voisins et a permis à certains chômeurs de trouver du travail dans le commerce. Donc cette tendance de perte démographique a ralenti à des degrés différents. Ces dernières années, la population totale paraît en fluctuation, en 2001 la population totale était réduite à 58 494, soit 533 habitants/km2. En 2003 elle augmente de nouveau, à 62 000 environ, soit 565 habitants/km2, dont environ 32 000 des petites villes en Chine habitants vivent dans le quartier urbain. En outre, à Zhegao la population flottante totalise 12 000 environ44. § Le bas taux d’urbanisation Zhegao est toujours un bourg important au nord de Chaohu, il compte la plus grande population parmi les bourgs d’arrondissement. A travers la construction de ces dernières années, la superficie du quartier urbain a augmenté à 5 km2 où se rassemblent 32 000 habitants locaux (51,6%). Mais la plupart d’entre eux s’occupent encore d’activités agricoles, en effet la population urbaine ne représente que 27,41% du total. L’excès de population rurale cause la croissance lente du revenu des paysans lequel est inférieur au niveau moyen de l’arrondissement Juchao depuis plusieurs années. Donc comment créer plus d’emplois dans les secteurs secondaire et tertiaire pour absorber ces paysans de façon à pousser une véritable urbanisation est une tâche urgente pour la mairie. § Un bas niveau de connaissances et une conception traditionnelle retardataire En Anhui, le niveau de connaissances paraît relativement bas, surtout à la campagne. Zhegao se situe dans une région relativement pauvre, environ la moitié des habitants locaux, surtout les paysans, n’ont reçu qu’une instruction primaire. La plupart d’entre eux n’ont aucune compétence professionnelle, ce ne sont que des secteurs à forte intensité de main-d’œuvre qui leur conviennent. Le manque de techniciens professionnels dérangera le développement de l’économie locale dans une forte mesure à l’avenir. En outre, comme Zhegao est un « pays de cocagne ». L’abondance des produits donne de mauvaises habitudes aux paysans : ils dépendent des produits locaux pour facilement gagner leur vie. Donc depuis longtemps ils gardent leurs champs et ne veulent pas travailler plus malgré leur bas revenu. Cette 44 Cette partie de population habite temporairement à Zhegao, la plupart d’entre eux sont dans les affaires avec une spéculation. Donc ils ne comptent pas en statistique des habitants locaux. s conception retardataire et paresseuse entrave leur développement individuel. Ces dernières années, sous la direction rationnelle de la mairie, des habitants sont sortis trouver un emploi ailleurs de façon à réaliser un revenu considérable pour Zhegao et améliorer leur vie. Donc c’est nécessaire de renforcer l’éducation de base pour augmenter les compétences de la population locale et changer leur conception retardataire de façon à stimuler le développement local en économie et société. § Les problèmes sociaux dus à une grande population flottante La prospérité du commerce des marchés a attiré de nombreux habitants des bourgs voisins. Selon une statistique incomplète, la population flottante a atteint 12 000. Leur arrivée a vraiment poussé le développement économique. Une partie s’y installe, une autre partie vient avec une volonté spéculative. Comme ils n’ont pas d’intention explicite, leur vie oisive fait naître des problèmes sociaux, tels que l’insécurité politique, la pollution environnementale, l’embouteillage de transport... Donc il faut élever le niveau local de gestion et efficacement renforcer leur gestion en vue de faire disparaître ces effets négatifs. Comment utiliser cet avantage démographique et jouer un rôle de centre régional, et en même temps comment rationnellement inciter les populations à travailler ailleurs pour élever leur revenu et atténuer la pression locale d’emploi deviennent 2 chaînons importants de l’urbanisation locale. VIII.9.2.2. Les activités économiques En tant que bourg central du nord de Chaohu, l’économie de Zhegao occupe toujours une place importante, surtout après « la Réforme et l’Ouverture ». En 2003, malgré la catastrophe du SARS (Syndrome respiratoire aigu sévère), Zhegao a remporté des succès en économie locale. Le bourg a encore réalisé 183 millions de yuans de valeur globale de la production agricole, 550 millions de yuans de chiffre d’affaires des entreprises industrielles et 130 millions de yuans de valeur ajoutée industrielle. Les recettes financières ont atteint 13,46 millions de yuans dont 6 millions de recettes fiscales en industrie et commerce. Le revenu net par paysan était de 2 250 yuans. Sous l’angle du volume économique, leur résultat se place 261 - Thèse : Urbanisation et urbanisme des petites villes en Chine encore dans les premières places dans l’arrondissement Juchao mais à en juger par l’orientation de son développement économique, il expose pas mal de problèmes. a. Le secteur primaire – accélérer l’industrialisation agricole Le climat de Zhegao convient à la culture agricole, presque tous les produits agricoles cultivés dans la plaine peuvent bien pousser ici. Il est riche en graines, colza, coton, légumes... De plus, grâce à la facilité du transport, il est devenu un centre principal de distribution des produits agricoles et subsidiaires dans les régions immédiates avec le beau surnom de «perle du commerce au centre d’Anhui » depuis l’antiquité. Sous la stimulation du commerce des marchés, le secteur primaire garde une tendance harmonieuse de développement. Pendant les années 1990, pour davantage élever le revenu des paysans, la mairie a amélioré la structure du secteur primaire local et augmenté le poids scientifique et technologique des produits agricoles. En même temps, elle a augmenté l’investissement sur l’infrastructure agricole et accéléré l’allure d’industrialisation agricole. En conséquence, Zhegao a obtenu un progrès considérable et graduellement exprimé l’avantage sur l’agriculture. § L’amélioration de la structure agricole Après avoir analysé les besoins du marché et la situation locale actuelle, la mairie a précisé la production des légumes comme pilier du développement agricole et le développement diversifié des cultures industrielles comme spécialité pour améliorer la structure agricole. Au fur à mesure de la décroissance du poids des céréales dans la production agricole d’années en années, une disposition nouvelle du développement (cultures industrielles au nord, fruits au sud et légumes au centre) s’est déjà formée. Par l’intermédiaire de la popularisation de la technologie de culture des semences sélectionnées, en 2003, l’agriculture locale a remporté un succès considérable, les productions globales des céréales, des colzas et des légumes ont battu un record et respectivement atteint 11 596 tonnes, 4 695 tonnes et 69 200 tonnes. Comme le bourg Xiage, en utilisant les réseaux pour enclore « des étangs poissonneux » artificiels dans la rivière Zhegao, les paysans locaux ont réussi à cultiver de nombreux produits aquatiques de qualité (poissons, crevette, crabe, 262 - Thèse : Urbanisation et urbanisme des petites villes en Chine anguille, molette de rivières...) et ont obtenu une forte rentabilité. De plus, en coordonnant « le programme national sur la transformation des champs en forêts » (tuigeng huanlin)45, 2 km2 de champs incultivés ont été transformés en forêt de façon à bien développer la sylviculture. En 2003, le revenu annuel par paysan s’est élevé à 2250 yuans. § Développer l’industrie en transformation des produits agricoles Pour davantage renforcer l’avantage des produits agricoles et subsidiaires de Zhegao et créer plus d’emploi, après avoir lancé une série de politiques préférentielles, la mairie a activement encouragé des PME à développer l’industrie de transformation des produits locaux de qualité pour élever leur valeur ajoutée et créer leur propre marque célèbre, de façon à augmenter la réputation de Zhegao. Ces mesures ont obtenu un bon résultat, surtout en absorption de la maind’œuvre pléthorique rurale en place. En même temps, sous le soutien de la mairie, de petites entreprises ont élargi leur taille et créé assez de rentabilité. Par exemple, en profitant de l’avantage des produits aquatiques locaux (proche du lac Chao), l’entreprise agricole Daxin Zhegao a coopéré à la production sur les langoustes décortiquées avec l’entreprise de Pêche Littorale Américaine et leurs produits ont été déjà authentifiés par FDA (Food and Drug Administration américaine). Au moyen de l’exportation vers les pays européens et américains, elle peut acquérir plus de 1 million de USD de revenus en devises chaque année. Ce secteur a un grand potentiel qui deviendra le secteur pilier local. Mais à présent, le poids scientifique et technologie des produits agricoles semble 45 Ce programme comprend non seulement le reboisement ou la replantation d'herbes dans les champs, mais aussi le reboisement des montagnes désertes et des terres incultes avec le soutien de la politique de l'Etat. Pour la réalisation de ce programme, l'Etat accordera une politique préférentielle sans précédent: les paysans recevront une subvention en grains ou en argent selon la production céréalière de leurs terres et, une autre pour la replantation des semis. Afin d'encourager les paysans ayant cédé leurs champs à reboiser les montagnes désertes ou les terres incultes, l'Etat prend en charge les frais de replantation des semis et applique la politique de « qui reboise protège et en bénéficie ». Pour ce faire, l'Etat a également établi un système important de contrôle et de surveillance. des petites villes en Chine relativement bas. Donc ces entreprises doivent augmenter l’investissement à l’innovation pour créer plus de produits agricoles de qualité. § Le perfectionnement de divers marchés professionnels Pour garder et améliorer l’environnement des marchés locaux des produits agricoles, 16 ha de terrains destinés à 5 sortes de marchés professionnels (légumes et fruits, bambou et bois, boucherie, céréales et huiles, autres produits agricoles et agroalimentaires) sont mis en place pour faire le gros et le détail des produits agricoles et subsidiaires. (Voir l’image). Parmi eux, la taille du marché des légumes est la plus grande, son volume des échanges dépasse 300 tonnes par jour. Une partie des produits se vend directement vers les grandes villes du delta du Yangtsé. L’animation de ces marchés du matin est devenu une scène spéciale de Zhegao. En pratique, son existence met pleinement en jeu l’initiative des paysans et entraîne le développement des secteurs correspondants, tels que la logistique, le transport, les services, etc., de façon à créer des chances d’emploi et faire prospérer l’économie locale. Malgré tendance du la bonne développement agricole, des problèmes restent encore à résoudre, par exemple, une grande proportion de la population agricole, la pollution d’environnement, le retard d’infrastructures agricoles, l’insuffisance de mécanisation agricole... b. Beaucoup de problèmes sur les entreprises industrielles locales L’entreprise industrielle rurale tient une place assez importante dans l’économie nationale, également elle sert de moyen principal pour faire prospérer l’économie rurale et résoudre le problème de la main-d’œuvre pléthorique rurale. Les entreprises rurales de Zhegao ont commencé en 1958, pendant les années 1980, leur développement a accédé à une période d’essor, l’industrie principale se urbanisme des petites villes en Chine composait de textile, matériaux de construction, traitement des céréales et de l’huile, manufacture mécanique et industrie chimique, etc. A ce moment-là, elles ont absorbé beaucoup de main-d’œuvre rurale et vigoureusement poussé le développement de l’économie locale. Avec l’approfondissement de la réforme économique pendant les années 1990, les entreprises nationales et collectives montrent graduellement leurs faiblesses, la situation de Zhegao n’est pas une exception. Bien qu’il occupe encore une place importante dans l’économie locale et que la mairie ait pris des mesures pour réduire ou éviter les facteurs négatifs, le secteur secondaire local a pas mal de problèmes : § Le manque des entreprises de leader et du secteur pilier Malgré une relativement longue histoire et une grande quantité d’entreprises rurales, le secteur secondaire local manque d’entreprises de leader, donc c’est difficile de créer un secteur pilier de Zhegao, ce qui perturbe son développement futur. Vu sous l’angle de l’effectif et de la situation d’impôts, l’entreprise nationale Sanfeng Textile Chaohu S.A. est sans aucun doute la plus grande entreprise à Zhegao. Elle a 2630 employés et 3 500 tonnes de production annuelle. La marque de « Wanghu » a reçu un bon accueil du public, mais au fur et à mesure de l’essor des entreprises privées des provinces Canton et Zhejiang, elle a graduellement perdu son marché. Son impôt sur le chiffre d’affaires a décru de 3,45 millions de yuans en 1997 à 2,29 millions en 2002. Actuellement, ses produits occupent encore une portion importante en Anhui, elle est en train d’effectuer une transformation du système et une innovation technologique sur ses produits, mais de nombreuses usines ont fermé et de nombreux salariés ont été licenciés. Evidemment, à court terme, c’est difficile de se débarrasser de la menace des entreprises de Zhejiang et Canton et redresser sa marque. De plus, des entreprises de distillerie, de matériaux de construction, industrie chimique et électricité, etc., rencontrent le même problème, la faillite, la fermeture, le licenciement d’employés et la reconversion se produisent souvent. Face à cette situation, on devrait prendre divers moyens pour Urbanisation et urbanisme des petites villes en Chine attirer l’investissement venant de tous les milieux et profiter de leur équipement pour redresser l’économie. A l’heure actuelle, certaines entreprises de traitement des produits agricoles et subsidiaires montrent une vigueur considérable, par exemple l’entreprise Daxin Zhegao. En tant qu’entreprise privée, elle a été fondée en 1996, l’effectif actuel est d’environ 330. En traitant des produits aquatiques et boucherie et en exportant vers l’étranger, elle a rapidement obtenu un succès et gardé une tendance vigoureuse de développement. Ce secteur manifeste un bel avenir, il n’y a pas d’inconvénient à la soutenir pour former un futur secteur pilier local. Certes, Zhegao se situe au milieu de la zone économique He-ChaoWu46 en Anhui, on doit profiter de sa bonne localisation pour attirer plus d’entreprises industrielles importantes de façon à revaloriser l’industrie locale. § La décentralisation des entreprises industrielles A cause de raisons historiques, la plupart des entreprises rurales se parsèment partout à Zhegao. Cette disposition éclatée est défavorable au rôle d’agglomération. Face à cette situation, la mairie a mis en place 2 nouveaux parcs industriels au nord-ouest et au sud du bourg, a fini la construction d’infrastructures et lancé des politiques favorables. Ce ne sont que des nouvelles entreprises privées et individuelles qui s’y sont implantées. Limitées par leur condition économique, d’anciennes grandes entreprises rurales n’ont pas la capacité de déménager. Pour résoudre ce conflit le plus tôt possible, les entreprises nationales ou collectives doivent accélérer l’allure du changement du système pour obtenir plus d’investissements, de façon à se débarrasser de la situation difficile. § La grave pollution sur l’environnement local Malgré le marasme, des secteurs traditionnels (le textile, la distillerie, les matériaux de construction et la mécanique ) tiennent une place importante dans 46 La zone économique He-Chao-Wu se compose de trois villes : Hefei, Chaohu et Wuhu, elle est une zone relativement développée en Anhui. Veuillez vous référer à la carte d’Anhui page à propos du bourg Xiage. des en Chine l’économie locale. Comme la plupart des entreprises manquent des facilités nécessaires sur la protection de pollution, pendant leur création, l’environnement a subi une grave terrains pollution. industriels d’habitation, la vie Parallèlement ces s’entremêlent aux des est habitants influencée dans une certaine mesure. Par exemple, à cause de l’évacuation des eaux usées sans traitement, la distillerie a sérieusement pollué la rivière de Zhegao. Et le bruit causé par la production porte atteinte à la santé des habitants. Donc il faut contrôler ce grave préjudice pour prouver le résultat durement gagné. Certes, les problèmes à cet égard ne se limite pas aux 3 points cidessus, par exemple, une basse valeur ajoutée des produits industriels, le manque de techniciens professionnels de qualité, le caractère incomplet des chaînes des secteurs correspondants, un grand poids des entreprises nationales ou collectives dans l’économie locale, etc. Ils retiennent aussi assez d’attention pour redresser la situation présente du secteur secondaire en désordre.
45,134
49/tel.archives-ouvertes.fr-tel-02185223-document.txt_5
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,088
10,885
En plus de la base des statistiques scolaires, nous avons également recouru à la base de données des ONGs et associations intervenant dans le domaine de l'éducation collectées par le Ministère de l'Education Nationale et de l'Alphabétisation (MENA) en 2015. Cette base de données a permis d'analyser les actions menées par les ONGs et associations à Ouagadougou pour réduire les inégalités scolaires. 2.4.1.2 Les données géo-référencées du projet ASPENO Le projet Atlas Scolaire PErmanent Numérique de Ouagadougou et ses environs (ASPENO), démarré en mars 2015 dans le cadre d'un partenariat entre l'IRD (Institut de Recherche pour le Développement)11, l'Institut Supérieur des Sciences de la Population (ISSP), l'Institut National des Sciences de Société (INSS) et les trois Ministères en charge de l'éducation au Burkina Faso, vise à la réalisation d'un « atlas scolaire permanent, numérique de la capitale, Ouagadougou, et ses environs ». Il repose en premier lieu sur la constitution d'une base de données géographiques sur les établissements en effectuant une géolocalisation par Global Position Satellite (GPS), laquelle s'est déroulée entre janvier et septembre 2015 dans la ville de Ouagadougou et ses environs (dans un rayon maximum de dix kilomètres). Cette base géoréférencée a ensuite été fusionnée à la base informatisée du Ministère de l'Education Nationale et de l'Alphabétisation (MENA), en utilisant le code établissement ; la base du MENA comporte toute une série d'informations sur chaque école (date d'ouverture, état et équipement Le projet a bénéficié d'un financement de l'IRD, dans le cadre de son programme Soutiens aux Projets Informatiques dans les Equipes Scientifiques (SPIRALE). 11 74 des écoles, dotation des classes, caractéristiques des enseignants, âge, sexe et origine sociale des élèves, etc.). Les difficultés rencontrées lors de la fusion des deux bases de données : - des écoles dont le code est différent d'une base à l'autre ; - des écoles dont le code est le même mais les noms des écoles sont différentes d'une base à l'autre ; - des écoles existantes dans la base du géo-référencement mais qui ne pas répertoriées par le ministère. Pour ce faire, la liste des écoles de chacune des deux bases de données comportant des erreurs est produite. Etant donné l'intérêt de ce travail à analyser les informations issues des statistiques scolaires, les corrections ont porté donc uniquement sur les écoles du MENA comportant des erreurs (soit un total de 301 écoles). Ensuite, les deux listes ont été confrontées afin de corriger certaines erreurs liées au nom ou au code. Enfin, un travail de terrain est réalisé pour géolocaliser les écoles dont les corrections n'ont pas pu se faire au bureau. Sur la base de ces corrections (au bureau et/ou sur le terrain), 858 écoles primaires sur un total de 887 recensées par le ministère en 2013-2014 (soit 97 % des écoles) ont pu être effectivement fusionnées. Cette fusion des deux bases de données a permis ainsi de réaliser une analyse originale et inédite de la répartition spatiale de l'offre scolaire à Ouagadougou. 2.4.1.3 Le recensement général de la population et de l'habitation de 2006 Le Burkina Faso a réalisé depuis son indépendance quatre recensements généraux de la population. La présente recherche a recours aux données du dernier recensement réalisé en 2006. Le dénombrement de la population s'est déroulé du 9 au 23 décembre 2006 sur toute l'étendue du territoire national. Il a permis de dénombrer 1 475 839 habitants résidants dans la ville de Ouagadougou soient 10,5 % de la population burkinabè (14 017 262 habitants) et 46,4 % de la population urbaine (3 181 697 habitants). Deux questionnaires ont servi à la collecte des données : le questionnaire « ménage ordinaire » et le questionnaire « ménage collectif ». Seul le questionnaire ménage « ordinaire » (confère annexe A2.3) fait l'objet de la présente recherche. Le questionnaire ménage ordinaire comprend essentiellement quatre 75 grandes parties : identification, caractéristiques de l'habitation, décès des douze derniers mois et émigration. Il contient aussi des informations sur l'état civil, la migration et les caractéristiques sociales et culturelles de tous les individus du ménage, l'éducation de la population de 3 ans et plus, les caractéristiques des activités des individus de 5 ans et plus, l'état matrimonial des 12 ans et plus, la fécondité des femmes et la mortalité. L'avantage de cette source de données est qu'elle est exhaustive et les informations sont disponibles à un niveau géographique plus fin. En outre, les données présentent différents niveaux hiérarchiques (des individus au sein des ménages et les ménages au sein des quartiers), permettant ainsi de pouvoir distinguer les effets contextuels des effets individuels. Contrairement aux données des statistiques scolaires (qui ne concernent que les élèves), les données du recensement permettent de réaliser des analyses sur la demande familiale d'éducation. Même si les données du recensement datent de 2006 (relativement anciennes), elles ont aussi le mérite, contrairement aux autres sources de données démographiques, telles que les enquêtes auprès des ménages qui sont plus récentes (EDS/MICS, EICVM réalisées toutes deux en 2009 et EMC réalisée en 2014) de pouvoir distinguer les zones loties des zones non loties, ce qui permet d'étudier quantitativement les inégalités spatiales à l'intérieur de la ville de Ouagadougou. Cependant, ces données ne prennent pas en compte la question de l'offre scolaire et le travail des enfants12 (INSD, 2006), phénomène très important notamment au sein des populations urbaines vulnérables. Concernant l'offre scolaire, les données des statistiques scolaires sont fusionnées aux données du recensement à travers le numéro du secteur, information collectée de part et d'autre. 12 Dans le recensement, les enfants qui travaillent et qui fréquentent ne sont pas pris en compte car les élèves à l'exception de ceux qui fréquentent les cours du soir sont d'office considérés comme non occupés. 2.4.1.4 Les données qualitatives Les acteurs institutionnels jouent un rôle important dans la réduction des inégalités d'accès à l'école notamment par le développement de l'offre scolaire et le soutien à la scolarisation des enfants démunis. Nous avons choisi de nous interroger sur leurs perceptions des inégalités scolaires. Comment les inégalités scolaires sont-elles perçues par ces acteurs? Quelles sont les formes d'inégalités scolaires définies par les acteurs des services de l'administration centrale du Ministère de l'Education Nationale et de l'Alphabétisation (MENA), ceux de l'administration déconcentrée (DRENA, DEPNA et CEB), ceux des services décentralisés (mairie) ou les partenaires qui interviennent soit pour influencer les politiques scolaires (syndicats), soit pour apporter de l'aide (ONG, PTF, etc.)? Quelles sont les actions menées pour réduire les inégalités scolaires? Pour ce faire, nous avions prévu de réaliser vingt entretiens individuels auprès de divers types d'acteurs institutionnels de l'enseignement primaire dans la ville de Ouagadougou, au niveau des mairies, des circonscriptions d'éducation de base, de certaines écoles, des directions déconcentrées (régionales et provinciales), d'ONGs, d'associations de parents, de syndicats et des partenaires techniques et financiers (PTF) (tableau 2.1). Il y a 12 mairies d'arrondissement, nous avons décidé d'enquêter une mairie du centre (l'arrondissement 1 faisant parti de l'exarrondissement de Baskuy13) et une commune en périphérie (arrondissement n°8) choisie selon le nombre non négligeable de zones non loties relevant de sa circonscription administrative. Les entretiens ont été réalisés également auprès de deux circonscriptions d'éducation de base : une au centre relevant de l'arrondissement 1 et l'autre en périphérie relevant de l'arrondissement 8. Dans chacune des circonscriptions, une école privée et une publique sont choisies de concert avec les conseillers pédagogiques de chacune des inspections, soit un total de 4 écoles. Les associations des parents d'élèves d'une école privée et d'une école publique parmi les 4 écoles ci-dessus sont choisies pour être interviewées. Les ONGs et associations ont L'arrondissement de Baskuy fait partie des cinq arrondissements que comptait la commune de Ouagadougou avant le nouveau découpage de la ville en douze arrondissements. Il fut scindé en deux arrondissements (arrondissement 1 et 2) dans le nouveau découpage administratif de la ville. 13 77 été choisies sur la base de la liste du MENA et en fonction de l'importance des activités qu'elles mènent. Tableau 2.1 : Les différents acteurs prévus pour l'enquête qualitative Centraux Déconcentrés MENA : - DGESS (1 EI) - SP/PDSEB (1 EI) MENA : - DRENA (1 EI) - DPENA (1 EI) - CEB (2 EI) - Ecoles (4 EI) Décentralisés - D.E mairie centrale (1 EI) - Mairie arrondissement (2 EI) Partenaires - ONGs /Associations (2 EI) - Syndicats (2 EI) - APE/AME (2 EI) - PTFs (1 EI) Note : EI=Entretien individuel En résumé, 20 entretiens individuels au total étaient envisagés dont 2 avec les acteurs centraux, 8 avec les acteurs déconcentrés, 3 avec les acteurs décentralisés et 7 avec les partenaires de l'éducation. Toutefois, nous avons pu interviewer dix-huit acteurs sur les vingt prévus (confère le détail des acteurs réellement interviewés au tableau A2.1 en annexe). En raison de leur non disponibilité et de leur très faible intervention sur les questions d'éducation à Ouagadougou, nous n'avons pu interviewer aucun Partenaire Technique et Financier (PTF). Nous avons également pu rencontrer un seul acteur syndical sur les deux en raison de la non disponibilité de l'autre. Néanmoins, pour ce qui est des PTFs nous avons demandé à la mairie, ceux qui interviennent et les actions qu'ils mènent. Ces entretiens se sont déroulés d'octobre à novembre 2015. Un guide d'entretiens semi-directifs (confère annexe A2.4) nous a permis d'animer ses entretiens individuels enregistrés à l'aide d'un dictaphone. Les thématiques abordées sont : - les discours sur les inégalités scolaires dans la ville de Ouagadougou : connaissance, perceptions, manifestations, causes, etc. ; - les politiques éducatives en termes d'offre scolaire mais aussi en faveur des populations vulnérables ; - les domaines prioritaires d'intervention en éducation des associations, des ONGs et les acteurs locaux à Ouagadougou. 2.4.2 Population cible et variables pour les analyses quantitatives 2.4.2.1 La Population cible Il est important, avant même d'entamer l'évaluation proprement dite des données, de revenir sur la population cible. Ce travail s'intéresse aux inégalités d'accès à l'école primaire dans la ville de Ouagadougou. Les inégalités scolaires aux autres ordres d'enseignement (préscolaire, secondaire et supérieur) sont plus importantes, mais malgré les progrès accomplis en matière de scolarisation primaire, des enfants à Ouagadougou sont encore en marge de l'école. Dans un contexte de gratuité et d'obligation scolaires14, il nous semble important de nous interroger sur les inégalités d'accès à l'école primaire à Ouagadougou. Dans les analyses classiques des déterminants de la fréquentation scolaire des enfants au primaire, on recourt généralement à la tranche d'âges officielle des enfants ; pour le Burkina Faso, il s'agit des 6-11 ans, c'est-à-dire ceux en âge officiellement d'être au primaire selon la loi d'orientation de l'éducation de 2007. Le biais introduit est qu'une grande partie des enfants de 6 voire jusqu'à 8 ans n'ont pas été encore inscrits à l'école à cause des retards scolaires, particulièrement dans la périphérie non lotie. Dans ce travail, nous avons donc choisi d'étudier la fréquentation scolaire des enfants de 9 à 11 ans en raison principalement : i. de la rentrée tardive des enfants car jusqu'à 8 ans à la rentrée 2006/2007, comme le montre le graphique 2.1 ci-dessous : une proportion (5,6 %) non négligeable d'enfants sont inscrits nouvellement encore au CP1 à cet âge. Ce résultat est conforté par l'examen des taux de fréquentation scolaire par âge selon les données du recensement (graphique 2.2). En effet, le taux de fréquentation ne commence à baisser qu'à partir de 9 ans ; La loi N°013-2007/AN portant loi d'orientation de l'éducation, en remplacement de la loi élaborée en 1996, stipule en son article 19 « L'éducation de base formelle comprend l'éducation préscolaire, l'enseignement primaire post-primaire. Les niveaux d'enseignement « Enseignement primaire » et « Enseignement post-primaire » constituent l'enseignement de base obligatoire ». ii. de la difficulté de rendre compte des facteurs de l'accès à l'école dans les données transversales. En rappel, l'accès à une école rend compte à la fois de la situation des enfants scolarisés et ceux déscolarisés. Ainsi, des biais sont introduits lorsque les caractéristiques du moment (à la date du recensement) sont utilisées pour expliquer une situation qui est survenue bien avant. Il est judicieux donc de considérer uniquement la fréquentation scolaire dans l'analyse sur les déterminants dans ce type de données (transversales) ; iii. il est vrai que des enfants de 11 sont déjà scolarisés au secondaire 1er cycle, mais cette proportion est faible (2,9 %). C'est surtout à 12 ans que la proportion d'enfants scolarisés au secondaire 1er cycle devient très élevée (6,9 %) (graphique 2.3). Graphique 2.1 : Répartition (en %) des nouveaux inscrits au CP1 à Ouagadougou selon l'âge 100 90 80 70 60 50 40 30 20 10 0 <6 6 7 8 9 10 11 12 Age (en année) Source : calcul de l'auteur à partir des données de la DEP/MENA, 2006/2007 13 14 15 >15 80 Graphique 2.2 : Taux de fréquentation scolaire (en %) des enfants de 3 à 29 ans à Ouagadougou par âge 100 90 80 70 60 50 40 30 20 10 0 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Age (en année) Source : calcul de l'auteur à partir des données du RGPH, 2006 Graphique 2.3 : Répartition ( en %) de la population scolarisée à Ouagadougou selon la classe suivie Source : calcul de l'auteur à partir des données du RGPH, 2006 81 2.4.2.2 Les variables d'analyse Les variables d'analyse proviennent essentiellement des données du recensement général de la population et de l'habitation. Quelques variables entrant principalement dans la construction des indicateurs synthétiques de conditions d'apprentissage, issues des bases de données administratives (c'est-à-dire des statistiques scolaires), et celles du niveau de vie sont décrites ultérieurement. Nous distinguons deux catégories de variables, à savoir la variable dépendante (variable à expliquer) et les variables indépendantes (ou variables explicatives). a) La variable dépendante La variable dépendante est la fréquentation scolaire15 et non l'accès à l'école en raison de la difficulté d'utiliser certaines variables indépendantes dans les analyses comme nous l'avons souligné plus haut. La fréquentation scolaire est le fait qu'un enfant soit à l'école ou non par rapport à une année scolaire de référence (ici 2006/2007). Contrairement aux données administratives qui collectent des informations sur les inscrits pendant une année scolaire, les recensements et les enquêtes auprès des ménages collectent l'information sur la fréquentation scolaire pour tous les enfants d'âge scolaire. Dans le recensement de 2006, c'est la colonne 17 du questionnaire ménage (confère annexe A2.3) qui permet de déterminer la fréquentation scolaire. La question posée est la suivante « (Nom) a-t-il déjà fréquenté ou fréquente-t-il actuellement l'école? ». Elle s'adresse à tous les résidents du ménage âgés de trois ans et plus. Les modalités de réponse sont : « non, n'a jamais fréquenté » pour ceux qui ne sont jamais été à l'école au moment du recensement et codés « 0 » ; « oui, a fréquenté » pour ceux qui ont abandonné l'école, le code est « 1 » ; « oui, fréquente actuellement », codé « 2 », pour tous les enfants qui fréquentent l'école. Notre variable dépendante est donc recodée de manière binaire : 1 « tous ceux qui fréquentent l'école » au cours de l'année scolaire 2006-2007 et 0 « ceux qui n'ont jamais ou ont déjà fréquenté ». La fréquentation de l'école est une dimension de l'accès à l'école. En effet, l'accès à l'école renvoie au fait de fréquenter l'école ou d'avoir fréquenté l'école et d'y n'être plus au moment à la date de la collecte des données. b) Les variables indépendantes Les variables indépendantes concernent les caractéristiques du contexte, du ménage et des individus. Ces variables sont choisies sur la base des travaux réalisés en milieu africain (Pilon, 1995 ; Pilon et Yaro, 2001 ; Kobiané, 2007 ; Wakam, 2003 ; Durand, 2006). - Caractéristiques contextuelles Le « village/secteur » au nombre de 30 au moment du recensement de 2006 dans la ville de Ouagadougou est une des variables contextuelles. L'autre est la zone d'habitation qui correspond à l'emplacement de l'habitation dans la ville de Ouagadougou et dont les modalités sont « lotie » et « non lotie ». A partir de ces deux variables, nous avons également construit une variable zone d'habitation en trois modalités : centre, périphérie non lotie et périphérie lotie. Le centre de la ville correspond aux secteurs 1 à 12 de l'ancien découpage (ancien arrondissement de Baskuy), la périphérie lotie aux secteurs 13 à 30, et la périphérie non lotie aux secteurs 12 à 30 (carte 2.1). Les données du recensement datant de 2006, la variable « zone d'habitation » est donc construite à partir de l'ancien découpage administratif de la ville, car le nouveau découpage en 55 secteurs n'est intervenu qu'en 200916. Nous avons choisi de découper la ville en trois espaces au lieu de deux (loti versus non loti) car, comme le soulignent Boyer et Delaunay (2009), nous ne sommes « plus face à la production de deux types de ville, comme cela a pu être le cas dans les années 1970. Une lecture binaire de l'espace intra-urbaine, loti/non loti, amènerait à occulter autant la diversité des périphéries que des espaces plus centraux ». La différenciation lotie et non lotie serait plus pertinent dans la problématique de trame urbaine et d'accès au foncier, mais pour l'étude des phénomènes sociodémographiques et économiques, une approche plus fine de l'espace intra-urbain semble plus appropriée. Le choix du centre de la ville se base sur les travaux de Fournet et al. (2008) qualifiant de secteurs centraux tous les aires non loties les années quatre-vingt notamment les secteurs 1 à 12 (1 à 11 dans le nouveau découpage). Ils le justifient par le fait que c'est à partir des années 1980 qu'il y a eu un vaste programme de lotissements de la capitale. Ce lotissement ne s'est pas accompagné forcement des infrastructures nécessaires. Ces secteurs sont centraux parce qu'ils sont 16 La loi n°066-2009/AN du 22 décembre 2009 consacre le découpage de Ouagadougou en 55 secteurs en lieu et place de l'ancien découpage en 30 secteurs. Dans ce cas, le centre de la ville correspond au secteur 1 à 11. 83 également situés au coeur de la capitale et jouent des fonctions administratives et commerciales très importantes. Carte 2.1 : Découpage de la ville de Ouagadougou en zone d'habitation (centre, périphérie lotie et périphérie non lotie ) - Caractéristiques du ménage Les caractéristiques du ménage comprennent le niveau de vie, la taille du ménage, le nombre d'enfants en bas âge (0-4 ans) et des personnes âgées (65 ans et plus). Le niveau de vie est un indicateur composite construit à partir des caractéristiques de l'habitat et des biens possédés par le ménage. Nous reviendrons plus loin sur la liste des variables entrant dans sa construction. 84 Quant à la taille du ménage, elle est construite à partir de l'identifiant du ménage et le numéro de l'identifiant de l'individu. Pour le nombre d'enfants en bas âge et le nombre de personnes âgées, elles sont construites à partir de l'identifiant du ménage, le numéro et l'âge de l'individu. - Caractéristiques de l'individu Nous distinguons les variables liées au chef de ménage (sexe, niveau d'instruction, religion, statut migratoire, activités économiques et âge) et à l'enfant (sexe, âge et lien de parenté avec le chef de ménage). Pour identifier le chef de ménage, nous avons eu recours à la variable « lien de parenté avec le chef de ménage » (question P04 du questionnaire individuel), la modalité « 1 » correspondant au chef de ménage et l'identifiant du ménage. Le lien de parenté des enfants avec le chef de ménage est recodé en 1 « enfants du chef de ménage », 2 « enfant apparentés au chef de ménage » et 3 « enfants sans lien de parenté ». Dans le questionnaire individuel, le sexe correspond à la question P03 (les modalités sont : 1= masculin et 2= féminin), le niveau d'instruction à la question P18 (recodée en aucun, primaire, secondaire et supérieur), la religion à la question P15 (recodée en 1=musulman, 2=catholique, 3=protestant, 4=autres) et les activités économiques, les questions P21 et P23 (recodée en 1=Chômeur, 2=Employeur, 3=Indépendant, 4=Salarié, 5=Autres). S'agissant de la variable « statut migratoire », elle est construite à partir des questions P09 (lieu de naissance), P10 (lieu de résidence il y a un an) et P11 (résidence à l'étranger). Les modalités de cette variable sont « migrants » codés « 1 » et les « non migrants » codés « 2 ». 2.4.3 Evaluation de la qualité des données L'évaluation de la qualité des données porte essentiellement sur les données du recensement de la population mobilisées dans cette recherche. 2.4.3.1 Le taux de non réponse des variables d'intérêt Le tableau 2.2 donne les taux de non réponses des variables indépendantes et de la variable dépendante entrant dans les analyses explicatives, calculés sur toute la population de la ville de Ouagadougou. Globalement, les taux de non déclaration sont acceptables, car ils sont inférieurs à 5 %, à l'exception de la variable « classe fréquentée » qui a un taux de 37,6 %. Avant son utilisation dans le modèle d'analyse, nous avons essayé de récupérer les valeurs manquantes à partir de la fréquentation scolaire. Ceux qui sont déclarés « jamais fréquentés » sont classés dans la catégorie « aucune classe fréquentée ». Tableau 2.2 : Taux de non réponse (en %) des différentes variables au RGPH, 2006 Variables Sexe Lien de parenté avec le Chef de Ménage Statut de résidence âge Province de naissance Province de résidence en 2005 Résidence à l'étranger Handicap Religion Zone d'habitation Fréquentation scolaire Classe fréquentée Occupation principale Etat matrimonial Survie du père Survie de la mère TNR 0,0 1,7 0,0 0,6 0,8 3,4 0,3 0,2 0,1 0,0 1,0 37,6 0,0 1,9 1,7 1,7 Source : INSD, Recensement Général de la Population et de l'Habitation (RGPH) de 2006 Note : TNR= Taux de Non Réponse 86 2.4.3.2 Les indices de qualité Des indices sont calculés en démographie pour rendre compte de la qualité des données des recensements ou d'enquêtes auprès des ménages. Les indices rendent compte de la structure de la population notamment la déclaration sur l'âge, de la fécondité et de la mortalité. Ces données ont déjà fait l'objet d'analyses thématiques, dont une consacrée à l'évaluation de la qualité des données (Tiendrébeogo et al., 2009). Par ailleurs, Wayack Pambè (2012), dans sa thèse réalisée sur la question des femmes chefs de ménage en lien avec la scolarisation dans la ville de Ouagadougou, a également utilisé les données du recensement de 2006, et a eu à faire le même exercice d'évaluation de la qualité des données. Nous capitalisons sur ces différentes évaluations des données du recensement (rapport de masculinité, pyramide des âges, etc.) en mettant l'accent cette fois-ci sur quelques indices classiques sur la déclaration des âges (indices de Whipple, de Myers et de Bachi) décrits en annexe A2.5. Ces indices sont calculés à l'aide de logiciel "Population Analysis Spreadsheet" (PAS) développé par le Bureau de Recensement des s Unis en utilisant le module SINGAGE. Le tableau 2.3 donne les chiffres des différents indices calculés et répartis selon le genre car les hommes par expérience dans les différentes opérations ne déclarent pas de la même manière leur âge que les femmes. Quand on considère l'indice de Whipple, les données sont globalement grossières (sa valeur est de 1,28) et il y a une attraction des âges se terminant par 0 et 5. En effet, si la valeur de l'indice de Whipple est comprise entre 1,25 et 1,749, les données sont grossières (confère annexe A2.5). L'indice de Myers (valeur de 10,20) montre également l'attraction des âges se terminant par le même chiffre, un résultat qui se confirme par l'indice de Bachi au regard de sa valeur de 7,40. Si la valeur de l'indice de Myers est supérieure à 10, il y a une attraction des âges se terminant par le même chiffre. S'agissant de l'indice de Bachi, si sa valeur est égale à 0, il n y a aucune préférence pour des âges. Nous constatons que les femmes déclarent relativement mieux leur âge que les hommes. Tableau 2.3 : Indices spécifiques d ' évaluation de la qualité de déclaration de l'âge à Ouagadougou selon le sexe Indices Whipple Myers Bachi Hommes 1,30 10,97 7,54 Femmes 1,26 9,64 7,24 Ensemble 1,28 10,20 7,40 Source : calcul de l'auteur à partir des données du RGPH de 2006 2.4.3.3 L'évolution de la structure de la population des tranches d'âge scolaire La tranche d'âge considérée généralement dans les analyses sur la scolarisation au Burkina Faso est les 3-29 ans pour l'ensemble du système éducatif (du préscolaire à l'enseignement supérieur). Cette évaluation va porter donc sur cette tranche d'âge de la population. En examinant la structure de cette population, dans l'ensemble, elle est plus ou moins régulière. Elle décroit légèrement jusqu'à l'âge de 10 ans où nous observons un creux avant de croître pour atteindre son maximum à 21 ans. Au-delà de 21 ans, la courbe est irrégulière. Ce constat peut être fait aussi bien chez les filles que chez les garçons. S'agissant des différences spatiales, le même schéma se dessine aussi bien au centre qu'à la périphérie lotie de la ville. A la périphérie non lotie, par contre, la courbe est plus irrégulière. La proportion des enfants âgés est plus élevée au centre de la ville qu'à sa périphérie, particulièrement non lotie. Ce résultat rejoint la conclusion de Rossier et al. (2011) selon laquelle Ouagadougou est une ville entourée d'enfants. Les données sont donc d'assez bonne qualité malgré les quelques irrégularités de la structure de la population des 3-29 ans. Graphique 2.4 : Répartition (en %) des enfants de 3-29 ans à Ouagadougou selon le sexe et l'âge et la zone d'habitation Source : calcul de l'auteur à partir des données du RGPH, 2006 2.4.3.4 La fonction de scolarisation La fonction de scolarisation doit croître (à cause des entrées tardives) jusqu'à un certain âge puis décroître à cause des sorties (déscolarisation). En examinant la courbe de la fonction de scolarisation (graphique 2.5), il ressort que dans l'ensemble, elle croît jusqu'à l'âge de 8 ans avant de décroître de façon régulière. Quand nous observons également la courbe de scolarisation, il n y a pas de différence entre filles et garçons jusqu'à l'âge de 11 ans, les écarts en matière de scolarisation se creusent surtout aux âges avancés. Un résultat qui est similaire à 89 ceux observés dans des travaux réalisés sur la ville de Ouagadougou (ISSP, 2013; Kobiané et Boly, 2012) et dans les statistiques administratives. Graphique 2.5 : T aux de fré quent ation scolaire ( en %) à Ouagadougou par sexe et l'âge Garçons Filles Garçons + Filles 100 90 80 70 60 50 40 30 20 10 0 3 4 5 6 7 8 Age (en ans) Source : calcul de l'auteur à partir des données du RGPH de 2006 En examinant les courbes de scolarisation selon la zone d'habitation (uniquement lotie (y compris le centre de la ville) /non lotie), la fonction de scolarisation croît globalement, puis décroît même si cette décroissance n'est pas régulière surtout dans la zone lotie (graphique 2.6). Nous observons également des écarts de scolarisation importants dès l'âge de 3 ans, même si entre 7 et 9 ans ceux-ci se réduisent à cause des inscriptions importantes de part et d'autre mais ces écarts se creusent au fur et à mesure qu'on avance dans le système à cause de la forte déscolarisation dans la zone non lotie. 90 Graphique 2.6 : Taux de fréquentation scolaire (en %) à Ouagadougou par zone d'habitation et l'âge Zone lotie 100 Zone non lotie 90 80 70 60 50 40 30 20 10 0 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Age (en ans) Source : calcul de l'auteur à partir des données du RGPH de 2006 2.4.4 Méthodes d'analyse Plusieurs méthodes statistiques sont mobilisées pour répondre aux différentes questions de cette recherche. 2.4.4.1 L'analyse bivariée L'objectif de l'analyse bidimensionnelle est d'étudier la relation entre la variable indépendante et la variable dépendante. Elle est donc le début de test de nos différentes hypothèses et consiste à l'analyse de la relation entre chacune de nos variables indépendantes et la variable dépendante (fréquentation scolaire ou non au moment du recensement). Dans l'étude des relations entre les variables, le khi-deux (ou khi carré (2)) est le test le plus utilisé. Pourtant il « n'est pas toujours le mieux indiqué pour l'analyse des relations bivariées. En effet, si le khi carré permet d'établir l'existence ou non d'une relation entre deux variables catégorielles, il ne permet cependant pas 91 de dire, au cas où il y a relation, quel est le sens de la relation ou quelle est l'intensité de celleci. Or, dans le cas de variables catégorielles ordinales, par exemple, il peut s'avérer fort utile de connaître le sens de la relation. La principale limite du khi carré est que sa valeur dépend de la taille de la population étudiée » (Kobiané, 2006 : 82). D'autres statistiques sont également utilisées pour tester la relation entre deux variables : le Q de Yule, le tauy (y) de Goodman et Kruskal, le d de Somers et le V de Cramer. Ces mesures d'association sont utilisées selon le niveau de mesure de la variable. Le Q de Yule et le tauy (y) de Goodman et Kruskal lorsque nous sommes en présence de variables quantitatives (d'intervalle ou de ratios), le d de Somers pour les variables de niveau de mesure ordinale et le V de Cramer, les variables nominales. Toutes nos variables indépendantes utilisées dans l'analyse bivariée sont qualitatives nominales ou qualitatives ordinales. Nous allons donc recourir au d de Somers ou au v de Cramer. Le d de Somers nous renseigne sur la proportion de réduction des erreurs commises lorsqu'on forme aléatoirement des paires ordonnées sur les deux variables étudiées. La valeur du d de Somers varie entre -1 et 1. Plus elle est élevé en valeur absolue, plus la réduction des erreurs est forte et par conséquent la relation elle-même est forte. S'agissant du sens de la relation, elle est donnée par le signe du coefficient : si celui-ci est positif, la relation est positive et s'il est négatif, la relation est négative. Quant au v de Cramer, il nous donne une indication seulement en ce qui a trait à l'intensité de la relation entre les deux variables. La valeur de son coefficient varie entre 0 et 1. Plus, elle est près de 1, plus la relation est forte, alors que plus elle est près de 0 plus la relation est faible. 2.4.4.2 a) Principes de base La description de la régression logistique se base sur la description faite par Stafford et Bodson (2006) dans leur manuel sur l'analyse statistique. La régression logistique est une technique d'analyse prédictive. Son principe est de relier la survenance ou la non survenance d'un évènement (variable dépendante dichotomique) à plusieurs variables explicatives. Dans notre cas, c'est le fait de fréquenter l'école primaire ou de ne pas la fréquenter au moment du recensement. b) Formulation Soit Y une variable dépendante et Xk (k=1,2,, n) n variables indépendantes. La nature de la variable Y est dichotomique (prend la valeur 1 pour la modalité oui et 0 si non). Dans ce cas Y est la fréquentation scolaire. Soit P la probabilité pour que l'évènement Y=1 se réalise. P= Prob (Y=1) et donc 1-P = Prob (Y=0). Le modèle de régression logistique permet de mettre Z=Log [P/ (1-P)]=logit (P) sous la forme linéaire. L'équation peut se traduire ainsi : P 1 1  e ( 0  1x1  n xn ) Où P est la probabilité pour un enfant de fréquenter l'école ;  0 est la constante du modèle indiquant le niveau moyen de Z pour toutes les variables de Xn.  n est le coefficient du modèle pour la variable Xn. A partir de cette équation nous avons : Log [P/ (1-P)] =  0 +  1 X1+ +  n Xn= Z. Les coefficients  n sont estimés par la méthode du maximum de vraisemblance. 2.4.4.3 L'analyse multi-niveau a) Principes de base Les méthodes d'analyse multiniveau ont connu un développement particulier dans les sciences de l'éducation à cause de la nature le plus souvent hiérarchique des données dans cette discipline. Ainsi, la note d'un élève dépend non seulement de ses caractéristiques individuelles, mais aussi de paramètres propres à son environnement scolaire (professeur, classe) (Goldstein, 1995). La littérature distingue les modèles à constante aléatoire (l'effet des variables explicatives est le même dans chacun des contextes, seul change l'effet moyen de chaque contexte par rapport à l'ensemble), et les modèles à pente aléatoire ou l'effet d'une variable est considéré différent selon l'unité contextuelle analysée (Courgeau et Baccaïni, 1997 ; Courgeau, 2002 et 2004 ; Hox, 2010 ; Bressoux, 2011). L'objectif des méthodes d'analyse multiniveau est de rechercher des corrélations entre, d'une part, des indicateurs individuels et, d'autre part, des variables socio-économiques prises en compte simultanément à plusieurs niveaux, notamment micro et macro. Elles corrigent donc l'erreur écologique (consistant à expliquer des comportements individuels à partir de mesures agrégées) et « l'erreur atomiste » (c'est-à-dire ignorer le contexte dans lequel évolue l'individu et étendre à la dimension du contexte un ensemble d'effets individuels) dans les analyses explicatives. Elles permettent d'aller au-delà des régressions classiques (linéaires, logistiques, etc.) pour prendre en compte des facteurs inobservés dans la probabilité d'être ou non scolarisée et examiner l'origine de cette variabilité inexpliquée. Nous pouvons ainsi mesurer précisément l'influence du contexte (correction des écarts types des estimateurs dans la régression) et distinguer les caractères intrinsèques à l'enfant (effet de discrimination), à sa famille (effet de demande), ou à son voisinage (effet contextuel). Les régressions classiques par contre ignorent 94 la structure hiérarchique des données et attribuent la variabilité résiduelle à des facteurs non mesurés de variation entre les enfants. Il y a la possibilité aussi d'intégrer dans notre base de données des informations (dans notre cas, les informations sur les écoles) d'une source externe (les données administratives), en veillant à la cohérence des deux sources d'informations. Les données du recensement de la population de 2006 se prêtent également à ce type d'analyse de par leur nature hiérarchique : secteurs/quartiers, ménages et individus. Ces données étant aussi exhaustives, elles comprennent l'ensemble des 30 secteurs17 de la ville, d'unités de niveau nécessaires donc pour réaliser une analyse multi-niveau (Arrègle, 2003). Dans la mise en application de ces méthodes (dans le dernier chapitre de notre travail), nous reviendrons sur le choix du modèle et les limites qui en découlent. b) Formulation Dans notre analyse, la variable dépendante est dichotomique (fréquente ou pas), nous avons recouru donc à la régression logistique binaire multiniveau. La formulation mathématique est : π Log (1−pij ) = β0 + β1 Xij + μ0j ij où exp(β0 +β1 Xij +μ0j) πij = 1+exp(β 0 +β1 Xij +μ0j) β0 : représente l'ordonnée moyenne de tous les quartiers (secteurs), c'est-à-dire le logarithme du rapport de chance (ou logarithme de l'odds ratio) moyen. μ0j : représente l'erreur associée à chaque secteur (quartier) j, soit l'écart de la moyenne de chaque secteur à la moyenne générale. Xij : représente les covariables. Ce chiffre correspond à l'ancien découpage de la ville de Ougadougou. Depuis 2012, la ville de Ouagadougou a connu un nouveau découpage portant le nombre de secteurs à 55. 17 95 L'interprétation se fait par rapport au logit. β1 est interprétée comme la variation sur le logit quand X varie d'une unité dans le cas continu, ou quand l'individu possède la modalité X dans le cas discret, pour un μ0j fixé, c'est-à-dire pour deux individus appartenant au même contexte. μ0j =0 pour les individus appartenant à un contexte moyen de l'ensemble des contextes. Fixant un jeu de covariables Xij, nous pourrons calculer la probabilité d'un individu « moyen » ayant certaines caractéristiques, puis faire varier μ0j pour voir l'impact sur le calcul de la proportion sur chacun des contextes. La variance totale se compose de deux termes : π2 - une variance individuelle (variance de niveau 1) σ 2 e0 qui vaut - une variance résiduelle entre groupes (variance de niveau 2), σ 2μ0. 3 pour un modèle logit ; A partir du modèle vide, un test de Wald permet de définir si la variance de niveau 2 est statistiquement non nulle, donc s'il existe des différences entre contextes. On définit le coefficient de partition de la variance (VPC) comme la part de la variance due à la différence entre les groupes. VPC = σ2 σ 2 μ0 2 μ0 +σ e0 2.4 . 4.4 L'analyse en Composantes Principales a) Principes de base L'Analyse en Composantes Principales (ACP) est une technique d'analyse d'interdépendance dans la mesure où il n'y a ni variables dépendantes, ni variables indépendantes identifiées au départ. On note également l'absence d'hypothèse nulle à tester ou à vérifier comme c'est le cas de l'analyse de la variance par exemple. Son objectif est essentiellement la réduction d'un certain nombre de variables en un ensemble restreint de nouvelles dimensions composites tout en assurant une perte minimale d'informations (Hair et al., 1998). Elles permettent donc « de procéder à des transformations linéaires d'un grand nombre de variables inter-corrélées de 96 manière à obtenir un nombre relativement limité de composantes non corrélées » (Baillargeon, 2003 : 3). Pour leurs applications, il faudra respecter les trois conditions suivantes (Fox, 1999) : - les variables doivent être de nature continue même si la technique fonctionne avec des variables dichotomiques et ou ordinales. Il faudra également un échantillon suffisamment grand (100 individus au moins) pour assurer une puissance statistique minimale. Hair et al. (1998) proposent un ratio de 10 sujets par variable pour assurer cette significative statistique. Il faudra avoir également un minimum de variables car on ne peut, par exemple, extraire 8 facteurs à partir de 12 variables. - une corrélation minimale doit exister entre les items ou les variables objet de l'analyse. La qualité des corrélations inter-items se mesure par l'indice du Kaiser-Meyer-Olkin (KMO) qui varie entre 0 et 1. Cet indice donne une information complémentaire à l'examen de la matrice de corrélation. Plus il est proche de 1 plus la qualité de la corrélation est bonne. La valeur minimale de 0,70 est exigée pour une bonne corrélation entre les items ; - la matrice de corrélation doit aussi être une matrice identité à l'intérieur de laquelle toutes les corrélations sont égales à zéro. Le test de sphéricité de Bartlett doit être significatif (p < 0,05) pour que l'hypothèse nulle soit rejetée signifiant donc qu'une matrice identité de toutes les variables sont parfaitement indépendantes les unes des autres. b) Formulation mathématique et mise en application aux données du RGPH 2006 Lors du RGPH de 2006, des variables liées aux caractéristiques des conditions de vie (approvisionnement en eau, mode d'aisance, moyen énergétique d'éclairage et de cuisson, nature du sol et des murs, nature du toit, etc.) et des biens possédés par le ménage (radio, télévision, réfrigérateur, etc.) ont été collectées. Si l'on considère ces variables au nombre de K, l'indicateur composite de pauvreté est une combinaison linéaire de ces K variables. La 97 formulation mathématique de l'indicateur composite de pauvreté (ICP) s'écrit donc comme K suit : ICPi I ik     k I ik où k 1 δk : représente les poids de chacune des K variables. Ils correspondent, généralement, aux coordonnées des variables sur le premier axe factoriel. i : représente chaque observation. En application aux données du recensement de 2006, dans une première étape, nous avons procédé à l'identification des variables en lien avec les caractéristiques des conditions de vie ou les biens possédés par le ménage. Une fois les variables connues, nous avons procédé à leur tabulation (fréquence simple) et identifié les plus pertinentes. Si une variable a une modalité dont la fréquence est supérieure à 90 %, elle n'est pas discriminante et donc elle n'est pas prise en compte (tableau 2.4). Par la suite, nous avons recouru au logiciel SPSS pour construire l'indicateur synthétique de niveau de vie en quintiles (très pauvre, pauvre, intermédiaire, riche et très riche). Il s'agit ici d'une approche relative de la pauvreté. Tableau 2.4 : Nature et définition des variables de l'indice composite de pauvreté N° Variables 1 Type d'habitat 2 Statut d'occupation 3 Nombre de pièces 4 Nature du mur 5 Nature du sol 6 Mode d'éclairage 7 Mode de cuisson 8 Eau de boisson 9 Type d'aisance 10 Évacuation des ordures codes Signification des codes Variables d'habitat 4 Immeubles, appartements, villas 3 Maison individuelle simple 2 Bâtiments à plusieurs logements (non immeubles) 1 Autres 5 Propriétaire 4 Location-vente 3 Location simple 2 Hébergé gratuitement 1 Autres 5 5 pièces et plus 4 4 pièces 3 3 pièces 2 2 pièces 1 1 pièce 4 Dur 3 semi dur 2 Banco 1 Autres 4 Carrelage 3 Ciment 2 Terre battue 1 Autres 3 Electricité 2 Lampes 1 Autres 3 Electricité, Gaz, pétrole 2 Bois 1 Autres 4 Robinet 3 Borne Fontaine 2 Pompe (forage) 1 Autres 3 Chasse d'eau 2 Latrines 1 Autres 6 Ramassage privé 5 Tas d'immondices 4 Fossé 3 Bac 2 Rue 1 Autres 99 Tableau 2.4 (suite): Nature et définition des variables de l'indice composite de pauvreté N° Variables 11 12 13 14 15 16 17 codes Signification des codes Variables d'habitats 6 Fosse sceptique 5 Caniveau 4 Puits Évacuation eaux usées 3 Rue 2 Cour 1 Autres Variables de biens durables et de patrimoine 4 Plus de 3 radios 3 2 radios Nombre de radios 2 1 radio 1 Aucune 3 Plus de 2 télés Nombre de télévision 2 1 télé 1 Aucune 3 Plus de 2 phones Nombre de téléphone 2 1 phone 1 Aucun 3 Plus de 2 réfrigérateurs Nombre de 2 1 réfrigérateur réfrigérateur 1 Aucun 3 Plus de 2 vélos Nombre de vélo 2 1 vélo 1 Aucun 3 Plus de 2 motos Nombre de moto 2 1 moto 1 Aucune La même démarche est utilisée pour construire les deux indicateurs synthétiques se rapportant aux conditions d'apprentissage : l'équipement infrastructures scolaires et l'équipement didactique (et/ou pédagogique). Ainsi, nous avons retenu les variables entrant dans la construction des deux indicateurs (tableau 2.5) et nous les avons construits en cinq classes. En raison des problèmes d'effectifs, nous les avons regroupés en trois classes. Pour l'indicateur d'équipement en infrastructures scolaires, les modalités sont : bon, intermédiaire et mauvais. Quant à l'équipement pédagogique, ses modalités sont : satisfaisant, intermédiaire et mauvais.
27,869
tel-03621338-2021UCFAC053_BACHER.txt_1
French-Science-Pile
Open Science
Various open science
2,022
Réactivité à l’Homme chez les taureaux limousins : phénotypage et caractérisation à l’aide d’un outil de monitoring et de tests comportementaux. Agriculture, économie et politique. Université Clermont Auvergne, 2021. Français. &#x27E8;NNT : 2021UCFAC053&#x27E9;. &#x27E8;tel-03621338&#x27E9;
None
French
Spoken
7,108
11,715
Réactivité à l’Homme chez les taureaux limousins : phénotypage et caractérisation à l’aide d’un outil de monitoring et de tests comportementaux HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Thèse présentée pour obtenir le grade de DOCTEUR D’UNIVERSITÉ École doctorale des Sciences de la Vie, Santé, Agronomie et Environnement – Université Clermont Auvergne Spécialité Éthologie Par LOUISE BACHER Réactivité à l’Homme chez les taureaux limousins: phénotypage et caractérisation à l’aide d’un outil de monitoring et de tests comportementaux Directeur de thèse : Xavier Boivin (UMR Herbivore, Centre ARA, INRAE) Encadrant de thèse : Vincent Prieur (France Limousin Sélection) Membres du Jury : Rapporteurs Lansade Léa Vandenheede Marc Examinateurs Rix-Lièvre Géraldine Duvaux-Ponter Christine Hazard Dominique Directeur Boivin Xavier de thèse Invité Vincent Prieur IR - HDR Pr Pr Pr CR DR IFCE, INRAE Val de Loire Université de Liège Université Clermont-Auvergne AgroParisTech INRAE, Occitanie-Toulouse INRAE, Auvergne Rhône-Alpes France Limousin Sélection Laboratoire d’accueil : Equipe CARAIBE – UMR Herbivores – INRAE Centre Auvergne Rhône-Alpes Sou tenue publiquement le 14 septembre 2021 Je souhaite remercier les financeurs et soutiens de ce projet : Cette thèse a été financée par le ministère de l’Agriculture et de l’Alimentation par le biais de la Formation Complémentaire Par la Recherche et du projet CASDAR BEBOP. Elle a été réalisée en collaboration avec France Limousin Sélection et a bénéficié du soutien du CNR et du RMT BEA. « L’art de vivre consiste en un subtil mélange entre tenir bon et lâcher prise » Henry Ellis. Cette phrase placardée au 3ème étage de l’Inrae de Theix résonne pour le travail de thèse. Et si vous pouvez maintenant lire le résultat de ce travail, c’est grâce à l’ensemble des personnes m’ayant entourée durant ces trois années et permis de jouer l’équilibriste. REMERCIEMENTS Je souhaite, dans un premier temps, remercier les membres de mon jury de thèse : Léa Lansade, Géraldine Rix-Lièvre, Christine Duvaux-Ponter, Marc Vandenheeden et Dominique Hazard, d’avoir accepté d’évaluer mon travail. Merci particulièrement pour l’ensemble des échanges permettant de prendre du recul et d’ouvrir de nombreuses perspectives vis-à-vis de ce sujet. Xavier, un grand merci! Pour la passion que tu transmets, le goût de la science, l’art de se questionner sans cesse mais également pour ta capacité à répondre à mes interrogations et à me rassurer. Merci de m’avoir guidée dès mes tous premiers pas dans le monde de la recherche tout en me responsabilisant et m’entraînant vers l’autonomie. Vincent, je te remercie d’avoir rendu possible ce projet de thèse et de m’avoir accompagnée dans chacune des étapes (le dossier, le stage, la thèse). Merci pour ta curiosité et ton regard « terrain » qui a apporté un autre éclairage sur les questions posées. Je tiens à remercier l’ensemble de l’équipe Caraibe. Merci à chacun pour votre accueil, votre disponibilité, votre humour, et ces nombreux échanges qui m’ont beaucoup appris (tant scientifiquement qu’humainement). Bien que la situation 2020-2021 nous ait privés de nombreux moments de partage, je n’oublie pas ceux vécus avant et ceux « virtuels » depuis. Et particulièrement, merci Christophe, Eric, Dédé et Hervé pour vos soutiens logistiques divers (de mes questions de recherche... à mes déboires en twingo). Cécile et Xavier pour l’animation de l’équipe. Romain, pour ton aide sur les modèles et ton implication pour le 1er chapitre. Isabelle, pour tes conseils et ton efficacité qui m’ont aidée à éclaircir ce travail. Marie, pour ta bienveillance et ton soutien. Véro, pour les échanges poulailler et recommandations culturelles. Merci Annie, Anne-Marie et Laurence pour la gestion administrative. Laure, c’est toi la prochaine sur la liste alors je te souhaite du courage, et merci pour ces temps partagés au sein de notre belle équipe. Merci également à l’ensemble des personnes présentes sur le pôle de Lanaud pour votre accompagnement et votre gentillesse dès mon stage de fin d’étude. Marc, pour votre accueil et l’attention portée sur la docilité des bovins. Jean-Louis, André et Henri-Pierre de m’avoir permis de collecter de nouvelles données comportementales en bousculant un peu le rythme de la station. David et les inspecteurs et inspectrices du Herd-Book pour le recueil de ces données comportementales si centrales dans la thèse. Eric, Julien, Alexis pour l’accompagnement face aux questionnements de la thèse et votre collaboration dans le cadre du chapitre 3. Merci à l’ensemble des membres de mon comité de thèse : Anne Aupiais, Marc Gambarotto, Julien Mante, Elsa Leyrat-Bousquet, Véronique Vissac Charles, Marie-Hélène Bouillier-Oudot, Florian i Dassé, Eric Fontanillas, Bruno Meunier, Isabelle Veissier, Alain Boissy. Pour les échanges, les conseils qui m’ont permis de préciser, recadrer et développer ce travail. Je remercie également Alexandre Pery pour son suivi toujours accompagné de bienveillance. Je remercie celles et ceux que j’ai pu croiser le temps de ma présence à l’Inrae... Les doctorants et post-doctorants avec qui j’ai pu échanger. Les joueurs et joueuses de handball et de badminton. Mes chers co-bureaux, Solveig, Bertrand, de m’avoir guidée dans les méandres du début de thèse, de m’avoir permis de déchiffrer le wookie. Pour tous les échanges enrichissants et les temps de détente si nécessaires. Bertrand, pour les abricots secs et nos échanges, jours pairs et impairs (« elles seront prêtes LUNDI! »). Agathe, cette dernière année nous a laissé peu d’opportunités de partage, je te souhaite le meilleur pour la suite de l’aventure thèse. Merci aux amis dijonnais. Difficiles, les retrouvailles quand on est éparpillés en France, que nos emplois du temps ne coïncident pas et qu’une pandémie s’en mêle mais ça viendra! Coco pour l’accueil dans ta chère région auvergnate. Clairette d’avoir mis des paillettes dans ma vie. Mathilde de me montrer qu’il y a parfois des évidences que le temps n’affecte pas. Cilou et toutes celles qui t’habitent (de la productrice de pâté à la « vraie » parisienne...) d’avoir égayé mon quotidien même dans les moments les plus difficiles, j’ai toujours en tête d’être au 1er rang de ton one-woman-show. Sandra et les chèvres, merci pour l’accueil, toujours ressourçant et dépaysant, de m’avoir permis de mettre un pied dans le monde de l’élevage et de m’avoir tant appris. Merci aux amis de l’Est et de l’enfance. Ma Camille pour toutes ces années et toutes ces journées papot’ en compagnie de Harry. Mathou, d’être venue te confronter au climat auvergnat et coutumes étranges de ses habitants 😉 & Vincent, pour les belles soirées messines. Louis, pour notre navigation en père peinard sur la grand-mare des canards... Catherine, pour toutes ces années de partage et d’amitié malgré la distance. Bertrand, merci pour tous nos échanges, ton écoute, et pour ton accueil lors de mes virées parisiennes. Merci d’être venu découvrir les terres et les soirées Clermontoises et d’avoir fait la groupie avec moi à Montendre! Paul et Félix, mes frères Mickey, s’il y a bien une chose que j’espère que vous retiendrez de nos aventures, c’est qu’avant l’heure c’est pas l’heure et qu’après l’heure c’est plus l’heure. Mais qu’il n’y a jamais d’heure pour vous battre à la belote... Merci de m’embêter « juste assez » pour me faire rire (notez que je me mords déjà les doigts d’avoir écrit ça). Et merci à ceux rencontrés lors des ces années clermontoises : Alessandra, pour l’amitié, pour les sorties à 2 de l’été 2020, toutes celles qui ont suivi et toutes celles qui suivront. Jimmy, pour l’accueil à l’Inrae où les yaourts font les meilleures blagues puis lors de soirées mémorables. Anderson, pour la lumière. Boubou, le temps d’échanger quelques ballons et volants à l’Inrae puis de se croiser tous ii les 6 mois pour festoyer ou papoter, alors : « à dans 6 mois! ». Pablo, mon compagnon de thèse, je te prie d’agréer mes remerciements distingués... merci de m’avoir fait sortir de ma bulle, joder! Et bon courage pour les mois à venir, on se retrouvera pour fêter ça! Jairo, quelle rencontre! Vivement que l’on retrouve nos « cafés » franco-espagnols. Merci pour toute cette gentillesse, cette folie, ce partage... Qui n’ont pas cessé malgré la distance, et à bientôt autour du cidre « asturien ». Merci, Eglantine pour ta douceur et tes taquineries et de nous avoir embarquées pour 24h mémorables à Dijon. Lucille, pour tes talents de chanteuse sur les ponts (et tout le reste... de nos goûters gourmands, au Forezstival, en passant par le canoë dans les rochers). Pour tous ces moments passés toutes les trois et pour votre soutien sans faille. Hubert, d’avoir rejoint ce trio le temps de quelques potins. Mes colocs, le parcàdin.gues.des, je ne vous remercierai jamais assez de m’avoir offert une nouvelle famille à Clermont-Ferrand. Le château aura vu bien des merveilles et fait résonner tant de rires. Merci de m’avoir initiée au surf, au rugby (au stade, au bar, dans notre salon ou dans les champs... on n’est pas à la piscine oh!), aux bivouacs. Pour les temps de jeux (malgré les mensonges éhontés de vos dents pointues de loup-garou), nos virées nocturnes qui m’ont permis de connaître un bon paquet de bars clermontois, un 1er confinement si particulier... Et pour tous les échanges, d’avoir supporté toutes mes interrogations, même les plus futiles. Merci du fond du cœur Ria, Patapain, Namastienne, Tissote, Pobi, Lulu, Tut, Ruggi, Fanfy... Priscille pour cette dernière période si particulière pour moi. Il y aura toujours un coin de canapé pour vous qu’importe où la suite me mène. Car, plus on est de vous, et plus on rit. À ma famille, Clermont c’est loin... et pourtant vous n’avez jamais cessé d’être présents pour moi. Merci à mon papy et mes mamies, pour le sens de l’amour inconditionnel. Mes oncles, tantes, cousins, cousines pour le sens de la famille (et de l’humour), pour ce que l’on partage dès que les retrouvailles sont possibles. Merci papa et maman de m’avoir offert des racines et des ailes... de m’avoir conduite vers la curiosité et l’envie d’aller toujours plus loin. Valentine, Julie, mes sœurs d’amour... un jour les projets du G3 verront le jour, en attendant merci du fond du cœur pour ce lien sans faille qui me porte et me guide. Ruggero, grazie per tutto, per la cottura della pasta, per l’avventura di topofuoco, per la prima e la seconda colazione... Ma soprattutto per le risate e la tenerezza. Le meilleur de mon cœur t’accompagne. Et bien sûr, une grosse pensée vers tous les animaux que je n’ai cessé de vouloir apprivoiser, qui m’ont vue/faite grandir... et qui m’ont conduite jusqu’ici. iii RÉSUMÉ En élevage, l’augmentation de la taille des fermes et l’automatisation des tâches quotidiennes peuvent altérer la relation Homme-animal et impacter la sécurité de l’éleveur, le bien-être et la production des animaux. Cela m’a conduit à explorer la notion de tempérament, définie en élevage comme la réaction des animaux lors des manipulations par l’Homme. Le tempérament repose sur des racines génétiques et fait l’objet de recherches à des fins de sélection. Il s’évalue le plus souvent par le biais de tests comportementaux où l’interaction entre l’Homme et l’animal est plus ou moins directe et parfois dangereuse (simple approche de l’Homme, à la manipulation ou à la contention). Le premier objectif du travail de thèse était d’explorer la cohérence des animaux dans le temps et à travers différentes situations d’évaluation impliquant l’Homme. Comme la présence de l’Homme dans leur environnement peut être une source de perturbation pour les animaux les plus réactifs, le second objectif de ce travail était d’explorer les liens entre l’activité quotidienne des taureaux enregistrée par des accéléromètres et leur réaction lors des tests comportementaux. Le dernier objectif était d’explorer si la réaction à l’approche à l’homme, réalisée à l’auge, peut présenter une dimension génétiquement héritable et être un potentiel outil à la sélection. Avec l’aide des manipulateurs de France Limousin Sélection, j’ai collecté les réponses de près de 500 jeunes taureaux limousins (de 7 à 14 mois) lors des tests comportementaux. Ces jeunes taureaux destinés à la monte naturelle étaient hébergés dans des conditions standardisées au sein de la station de Lanaud. Ils portaient en permanence des accéléromètres Axel® (Mé , France) renseignant, toutes les 5 minutes, leur activité et leur posture majoritaires (ingestion, rumination, repos...). La réponse des jeunes taureaux lors des tests comportementaux apparaît cohérente dans le temps. Deux dimensions comportementales indépendantes sous-jacentes sont apparues. D’une part, la réponse des taureaux face à l’approche active de l’Homme (en liberté, à l’auge ou dans un contexte de manipulation). Et, d’autre part, la réponse des taureaux dans la cage de contention. Ce travail n’a pas mis en évidence de relation significative entre les réponses lors des tests comportementaux et l’activité quotidienne lors de périodes sans perturbation notable (i.e. hors tests comportementaux, réallotement). Enfin, pour la première fois chez des bovins allaitants, des fondements génétiques derrière les réactions des taureaux face à l’approche de l’Homme à l’auge ont été mis en évidence. La notion de tempérament n’est pas unidimensionnelle. Il apparaît donc primordial de questionner ce que l’on souhaite mesurer, et choisir le ou les tests comportementaux adéquats, notamment dans un contexte de sélection génétique. Le test d’approche à l’auge est un test facile à réaliser et très sécurisant qui pourrait s’avérer prometteur en terme de sélection. Par contre, si l’utilisation de capteurs est de plus en plus présente en ferme, les travaux de ma thèse n’ont pas permis de montrer que l’activité quotidienne pourrait être un témoin de la réactivité à l’Homme. Mots-clés : taureaux allaitants, tempérament, réactivité à l’Homme, tests comportementaux, monitoring v ABSTRACT In animal husbandry, the increase in the size of farms and the automation of daily tasks can deteriorate the human-animal relationship and affect the safety of the breeder, the welfare and the production of animals. These consequences led me to explore the notion of temperament, defined in breeding as an animal’s behavioural reaction to handling by humans. Temperament is genetically rooted based and explored in genetic selection. Temperament is mostly assessed through behavioural tests with more or less direct interaction between the human being and the animal (simple human approach, handling or restraint). The first objective of this work was to explore the young bulls’ consistency over time and across different behavioural tests involving more or less actively the human being. The human’s presence in the farm animals’ environment can be a source of disturbance for the most reactive animals, so the second objective of this work was to explore the links between the individual daily activity recorded by accelerometers and the young bulls’ reaction in behavioural tests. The last objective was to explore whether the reaction to the human being approach at the feed barrier is genetically rooted and could be a genetic selection test. With the support of the technicians from France Limousin Sélection, I collected responses from nearly 500 young Limousin bulls (7 to 14 months old) during behavioural tests. These young bulls were intended for natural service and housed in standardized conditions in the Lanaud station. They wore Axel® accelerometers (Médria, France) that providing every 5 minutes the predominant activity and posture (ingestion, rumination, rest, etc.). The response of young bulls to behavioural tests was consistent over time. The different behavioural situations highlighted at least two underlying independent behavioural dimensions. On the one hand, the bulls’ response to the active human approach (free, at the feed barrier or during manipulation). On the other hand, the response of the bulls in the chute. No significant relationship appeared between responses during behavioural tests and daily activity during periods without significant disturbance (i.e. excluding behavioural tests, reallocation). Finally, for the first time in beef cattle, we demonstrated the genetic roots behind the bulls’ reactions to the human approach. The notion of temperament as defined in the context of this work is not unitary. It appears essential to question what is really measured, and to the appropriate behavioural test, particularly in a context of genetic selection. The approach test at the feed barrier is an easy to perform and very safe test which could be very promising in terms of selection. If the use of sensors is more and more present on farms, this work did not show that daily activity could be a witness of reactivity to humans. , monitoring vii TABLE DES MATIÈRES REMERCIEMENTS I RÉSUMÉ V ABSTRACT VII TABLE DES MATI È RES IX LISTE DES TABLEAUX ET FIG URES XI PRÉAMBULE 1 INTRODUCTION GÉNÉRALE 3 1. LA RÉACTION DES ANIMAUX FACE À L’HOMME, UNE PRÉOCCUPATION MAJEURE EN ÉLEVAGE 2. 5 RÉACTION, RÉACTIVITÉ ET TEMPÉRAMENT : DÉFINITIONS DES CONCEPTS ET FACTEURS D’INFLUENCE 9 3. É VALUER ET COMPRE NDRE LE TEMPÉRAMENT DES ANIMAUX FACE À L’HOMME 16 4. LES OPPORTUNITÉS OFFER TES PAR LES OUTILS D’ ÉLEVA GE DE PRÉCISION POUR L’ÉTUDE DE LA RÉACTION À L’HOMME 21 5. 22 OBJECT IFS DE LA THÈSE CONSIDÉRATIONS MÉTHODOLOG IQUES 25 1. CONTEXTE EXPÉRIMENTAL : LA STATION NATIONALE DE QUALIFICATION DE LANAUD 27 2. LES DONNÉ ES COM PORTEMENT ALES COLLE CTÉES 28 3. LES DONNÉES DE MONITORING COLLECTÉES 29 CHAPITRE 1 - ÉTUDE LA RÉACTION DES JEUNES TAUREAUX LIMOUSINS FACE À L’HOMME PAR LE BIAIS DE TESTS COMPORTEMENTAUX 35 PRÉSENTATION ET RÉSUMÉ DU CHAPITRE 1 37 1. CONTEXTE ET OBJECTIFS 37 2. MATÉRIEL ET MÉTHODES 38 3. PRINCIPAUX RÉSULTATS 38 4. CONCLUSIONS 39 ARTICLE 1 41 ix CHAPITRE 2- TEMPÉRAMENT DES BOVINS ALLAITANTS : ÉVALUATION ET RELATION AVEC LE COMPORTEMENT QUOTIDIEN ET LES PERFORMANCES DE CROISSANCE 63 PRÉSENTATION ET RÉSUMÉ DU CHAPITRE 2 65 1. CONTEXTE ET OBJECTIFS 65 2. MATÉRIEL ET MÉTHODES 66 3. PRINCIPAUX RÉSULTATS 67 ARTICLE 2 69 CHAPITRE 3 - ANALYSE GÉNÉTIQUE DE LA DISTANCE D’EVITEMENT À L’AUGE DES JEUNES TAUREAUX LIMOUSINS 91 PRÉSENTATION ET RÉSUMÉ DU CH TRE 3 93 1. CONTEXTE ET OBJECTIF 93 2. MATÉRIEL ET MÉTHODES 93 3. PRINCIPAUX RÉSULTATS 94 4. CONCLUSIONS 94 ARTICLE 3 97 DISCUSSION GÉNÉRALE, PERSPECTIVES ET CONCLUSION 115 DISCUSSION GÉNÉRALE ET PERSPECTIVES 117 1. LA RÉACTION DES JEUNES TAUREAUX À L’APPR OCHE DE L’HOMME EST UN TRAIT INDIVIDUEL REPOSANT SUR DES FONDEMENTS GÉNÉTIQUES 2. LA RÉACTION DES JEUNES TAUREAUX LORS DES MANIPULATIONS REPOSE SUR DIFFERENTS TRAITS 126 3. 129 PERSPECTIVES GÉNÉRALES CONCLUSION 133 BIBLIOGRAPHIE 135 VALORISATIONS ET DIFFUSION SCIENTIFIQUES 157 x LISTE DES TABLEAUX ET FIGURES Cette liste n’inclue pas les figures et tableaux présentés dans les chapitres rédigés sous forme d’articles scientifiques. Figure 1. Représentation schématique (d’après Bourguet, 2010, et Désiré et al., 2002) des facteurs intervenant sur la réactivite des animaux au contact de l'homme et induisant les réponses comportementales et neurophysiologiques................................................. 12 Figure 2. Les dimensions émotionnelles influençant la réponse de l'animal à l'homme (Hemsworth and Boivin, 2011 d'après Waiblinger et al., 2006)........................................ 14 Figure 3. Vision non exhaustive des relations existantes entre les tests comportementaux impliquant l’homme ou la manipulation par l’homme chez les bovins allaitants (BA) et laitiers (BL).........................................................................................................................20 Figure 4. Plan du traitement réalisé sur les données médria®......................................... 31 Figure 5. Calcul du niveau d'activité (selon la méthode proposée par Veissier et al., 2017)............................................................................................................................................. 32 Tableau 1. Synthèse des relations obtenues entre les tests comportementaux et les données de croissance (chapitre 1 & 2)............................................................................ 118 Tableau 2. Héritabilités calculées dans la littérature pour les tests comportementaux réalisés dans ma thèse...................................................................................................... 120 Tableau 3. Environnement physique et social des tests comportementaux réalisés.... 124 xi PRÉAMBULE L’élevage est une activité humaine mettant en lien l’Homme et l’animal. Qu’importe le système d’élevage, la place de l’Homme est prépondérante pour l’observation et les soins portés aux animaux, même s’ils sont de plus en plus assistés par des technologies automatiques. Malgré des siècles de domestication, les réactions des animaux lors d’observations et de manipulations par l’Homme sont encore sources de difficultés et restent un enjeu majeur en élevage. La réponse des animaux à l’Homme est un facteur important du bien-être et de la productivité des animaux mais également du confort voire de la sécurité des éleveurs (Hemsworth and Boivin, 2011). La réponse de l’animal au contact de l’Homme dépend de l’environnement direct de l’animal. Par exemple, la nouveauté ou familiarité du lieu et de l’environnement social mais également l’aisance et la formation de l’éleveur influencent la réaction de l’animal lors des manipulations (Hemsworth and Coleman, 2011). Cette réaction repose également sur des déterminismes environnementaux et individuels. Les qualités des contacts (nature, fréquence, période de vie...) entre l’Homme et l’animal, construisent leurs perceptions mutuelles qui caractérisent leur relation (Waiblinger et al., 2006). Enfin, cette réaction à l’Homme repose sur des fondements génétiques. En effet une part de la variance phénotypique, dans la façon dont les animaux réagissent au contact de l’Homme, est d’origine génétique (Haskell et al., 2014). Ce facteur individuel est donc utilisable comme un levier pour l’amélioration de la réaction des animaux face à l’Homme. Cependant, pour intégrer cette composante dans la sélection génétique des animaux, il est nécessaire de disposer en premier lieu de tests valides et sûrs pour l’évaluation du comportement des animaux (Waiblinger et al., 2006 Dans de nombreux pays d’élevage, la réaction des animaux face à l’Homme et aux manipulations est appelée « tempérament ». Elle est majoritairement évaluée dans le contexte de la cage de contention : par l’agitation de l’animal dans la cage et à sa sortie (Haskell et al., 2014). Si ces tests apparaissent comme sûrs et rapides à réaliser, la question de la dimension comportementale mesurée demeure. La définition académique du tempérament d’un animal implique différents traits mais les publications sur les animaux d’élevage sont centrées sur la réponse aux manipulations 1 sans clairement explorer la question de l’intervention ou non de l’Homme. Ce questionnement est d’autant plus important dans les systèmes d’élevage européens où les contacts Homme-animal sont bien plus fréquents que dans les systèmes d’élevage très extensifs américains, sud-américain ou océaniens. Certaines études ont évalué les animaux par rapport à leur réponse à leur distance d’évitement (Waiblinger et al., 2003). D’autres études ont analysé la réponse des animaux lors d’une manipulation directe par l’Homme (sans outil de contention) (Boivin et al., 1992; Vénot et al., 2015). Mais les risques lors des tests peuvent être importants pour l’Homme et pour l’animal. Il paraît donc pertinent de questionner davantage les potentielles liaisons entre les phénotypes issus de ces tests (contraints vs en « liberté ») afin de déterminer s’ils mesurent bien une ou des dimensions comportementales communes. Au-delà de procédures ponctuelles d’évaluation de la réponse des animaux à l’Homme, il est, peut-être, possible de bénéficier de nouveaux systèmes automatisés d’observation de l’activité des animaux au quotidien (Haskell et al., 2014). Des travaux ont mis en évidence des liens entre la réactivité des animaux face à la présence ou la manipulation par l’Homme, le comportement des personnes travaillant dans les exploitations, et les performances de production ou de reproduction (Ceballos et al., 2018b; Destrez et al., 2018). Aussi leur activité quotidienne individuelle enregistrée par les outils d’élevage de précision pourraient également refléter différentes réactivités à l’Homme. De récents travaux suggèrent de tels liens qui méritent d’être explorés (Llonch et al., 2018; MacKay et al., 2014, 2013). Ainsi après avoir éclairci les dimensions comportementales mesurées lors différents tests comportementaux, l’objectif de cette thèse sera également d’étudier le potentiel des outils de monitoring pour la caractérisation de la réaction des animaux face à l’Homme. 2 INTRODUCTION GÉNÉRALE 3 INTRODUCTION GÉNÉRALE INTRODUCTION GÉNÉRALE 1. LA RÉACTION DES ANIMAUX FACE À L’HOMME, UNE PRÉOCCUPATION MAJEURE EN ÉLEVAGE 1.1. DOMESTICATION ET AMÉLIORATION DES RÉACTIONS DES ANIMAUX FACE À L’HOMME L’élevage est une activité liant l’Homme et l’animal qui repose le plus souvent sur la domestication d’espèces animales. Parmi de nombreuses définitions, la domestication peut se définir comme le processus par lequel une population animale s’adapte à l’Homme et à l’environnement captif par la combinaison de changements génétiques à travers les générations et d’effets environnementaux lors du développement de l’individu (Price, 1984). Cette adaptation des animaux aux conditions d’élevage affecte les réponses des animaux depuis le Néolithique et continue de le faire (Hemsworth and Boivin, 2011). Pour les populations domestiquées, la transition de la vie sauvage à la vie captive s’accompagne notamment de changements dans la disponibilité des abris, de l’espace, de l’alimentation et de l’eau ainsi que dans l’environnement social et dans la pression des prédateurs (Price, 1999). L’animal est autant soigné, protégé qu’il est soumis à de nombreuses contraintes. Au-delà de l’adaptation à l’environnement, la domestication se caractérise par la formation d’une relation de forte proximité entre l’homme et l’animal (Price, 1984). La réduction des réactions de peur ou d’anxiété de ces animaux face à l’Homme est une composante majeure de la domestication (Boissy et al., 2005). Malgré des siècles de domestication, les réactions des animaux lors des observations et des manipulations humaines sont toujours des sources de préoccupations (Hemsworth and Boivin, 2011). L’élevage n’est pas possible si l’animal ne possède pas la capacité de cohabiter avec l’Homme, s’il n’est pas capable d’élever sa descendance dans des conditions créées par l’Homme et d’accepter la nourriture apportée par l’Homme (Adamczyk et al., 2013). En élevage, cette capacité à s’adapter à la présence humaine et aux manipulations fréquentes est donc un facteur important en terme de sélection (Grandin, 1993). La sélection comportementale des animaux est réalisée par l’homme depuis le début de la 5 INTRODUCTION GÉNÉRALE domestication en gardant les animaux présentant des comportements favorables (Price, 1999). Lors d’une enquête auprès de 300 éleveurs de bovins limousins, la réaction des animaux face à l’Homme apparaît comme le premier critère intervenant dans la décision de réformer un animal reproducteur (Boivin et al., 2007) 1.2. RÉACTION DES ANIMAUX FACE À L’HOMME ET ENJEUX EN ÉLEVAGE La réaction des animaux face à l’Homme est un facteur important vis-à-vis du bien-être et de la productivité des animaux d’élevage mais également de la satisfaction, du confort voire de la sécurité des travailleurs au contact des animaux. 1.2.1. L’ENJEU DE BIEN-ÊTRE ANIMAL Le bien-être animal est défini comme « un état mental et physique positif lié à la satisfaction des besoins physiologiques et comportementaux ainsi que des attentes de l’animal » (Anses, 2018). Le respect du bien-être animal s’évalue notamment, au regard des « Cinq Libertés » définies par le Farm Animal Welfare Council en 1979 puis modifié en 2009. Parmi ces libertés, l’Homme doit garantir l’absence de douleur, de blessure et de maladie et également des conditions de vie aux animaux exemptes de peur et de détresse. Ainsi, la garantie du respect du bien-être animal repose notamment sur la réduction de la peur des animaux face à l’homme. Cette peur se traduit par des réactions physiologiques via l’activation du système nerveux sympathique. Cette activation se traduit, en particulier, par la libération de catécholamines (adrénaline et noradrénaline) et l’augmentation du rythme cardiaque (Forkman et al., 2007; Hubbard et al., 2019). Ces paramètres physiologiques placent l’animal dans les conditions pour adopter le comportement approprié face au challenge (McFarland, 2009) mais qui s’avère parfois inapproprié en élevage. Des comportements de défense active (attaquer, menacer) et d’évitement actif (fuir, se cacher, s’échapper) face à l’homme peuvent être considérés comme des réactions de peur (Forkman et al., 2007). Ces manifestations sont aussi suivies par l’activation de l’axe hypothalamo-hypophyso-adrénocortical et la sécrétion de l’hormone corticotrope, l’ACTH. Cette hormone provoque la synthèse et la sécrétion de corticostéroïdes (Mormède, 2005). L’activation de ce système prépare l’animal à répondre, si les perturbations durent ou se répètent. En effet, ces systèmes produisent des métabolites étiques, stress Selye (1973) comme « la réponse non spécifique de l’organisme à toute demande qui lui est faite ». Mormède (1995) complète cette définition en décrivant « une réaction psychobiologique se produisant dans les situations où les mécanismes de l’adaptation sont sollicités de façon excessive ou non spécifique ». A noter que c’est la manière dont l’animal perçoit la situation, et non la situation en tant que telle, qui détermine sa réaction. Ainsi la réaction d’un animal dépend de sa représentation mentale de la situation (Veissier and Boissy, 2007). Le stress, dit aigu quand il est ponctuel, est, par exemple mis en évidence par les corrélations entre la réaction de fuite des bovins en sortie de cage de contention et l’augmentation de concentration sérique de cortisol (Cooke et al., 2019; Curley et al., 2006; Parham et al., 2021). Même en cas de réponses de stress modérées, de nombreux travaux chez de nombreuses espèces montrent que les interactions homme-animal régulières pour les soins en élevage peuvent induire un stress chronique (porcs, volaille, vaches laitières..., Hemsworth & Coleman, 2011). La prolongation de la mobilisation des réserves s’accompagne de l’inhibition, au moins partielle, des processus tels que le stockage d’énergie, la croissance, la reproduction, la nociception (Wu, 2021). La prolongation de la réponse de stress, touche tout l’organisme et conduit à l’affaiblissement de l’individu. Ce stress, en relation avec ses corollaires hormonaux et comportementaux, a des conséquences sur la santé des animaux et notamment sur le système immunitaire de l’animal (bovins - Burdick et al., 2011; Fell et al., 1999; ovins Zhang et al., 2021). Bruno et al., (2018) ont, par exemple, mis en évidence la réaction de fuite des bovins en sortie de cage de contention et leur réponse immunitaire aux vaccins contre la leptospirose: les animaux les plus lents en sortie de cage de contention présentent une réponse en anticorps accrue par rapports aux bovins les plus rapides. Au-delà de ces aspects négatifs, la perception de l’Homme par l’animal peut également être positive. L’interaction est alors à l’origine d’états émotionnels positifs. Dans ces situations, l’animal approche volontairement l’Homme et recherche la 7 INTRODUCTION GÉNÉRALE proximité spatiale. Il exprime des signes d’anticipation, de plaisir et de relaxation suggérant une expérience positive. Ces interactions positives, notamment les caresses, chez les bovins ou les ovins, s’accompagnent également de changements physiologiques (ex : augmentation de la concentration en ocytocine, réduction du rythme cardiaque) (Rault et al., 2020 pour revue). Si les émotions positives issues des interactions Hommeanimal sont moins étudiées que les négatives, elles sont pourtant centrales dans la définition du bien-être animal présentée précédemment. 1.2.2. LES CONSÉQUENCES SUR LA PRODUCTIVITÉ DES ANIMAUX D’ÉLEVAGE, LE REVENU DE L’ELEVEUR ET LA SANTÉ AU TRA VAIL La réaction des animaux lors des interactions régulières avec l’Homme se traduit également dans les performances de production des animaux, là aussi via les réponses au stress (Dodd et al., 2012; Hemsworth, 2003). Ces conséquences concernent la croissance (Bruno et al., 2016, 2018; Cafe et al., 2011; Cooke et al., 2019), la qualité de la viande (Behrends et al., 2009; Cafe et al., 2011; Olson et al., 2019; Sant’anna et al., 2019), la production laitière (Breuer et al., 2000; Marçal-Pedroza et al., 2020) mais également les performances de reproduction (Barrozo et al., 2012). Dans ces études, les conséquences des réponses de peur lors de manipulations ou d’interactions avec l’Homme, sur les paramètres de production sont négatives. Ainsi il semble établi que la réaction de peur des animaux d’élevage face à l’Homme conduit à une dégradation de la qualité et de la quantité des produits animaux. L’altération du bien-être et des performances des animaux a des conséquences économiques. Aux Etats-Unis, déjà en 1974, les pertes annuelles engendrées par les ecchymoses sur les bovins lors de leur manipulation dans les systèmes de contention ont été estimées à 22 millions de dollars (Grandin, 1980). Plus récemment, Olson et al., (2019) ont calculé que les génisses allaitantes calmes rapportent en moyenne une soixantaine de dollars de plus à la vente de la carcasse que les plus réactives. Au-delà de ces aspects économiques, les interactions avec des animaux réactifs menacent la sécurité de l’Homme et sont sources de stress (Ceballos et ., 2018a). Les problèmes liés à la manipulation des animaux réactifs vont de la perte de temps à des accidents corporels graves (Bouissou, 1992; Hoppe et al., 2010; Stephansen et al., 2018). En France dans les exploitations agricoles en 2013, un tiers des victimes d’accidents de 8 INTRODUCTION GÉNÉRALE travail avec arrêt exerçait une activité en rapport avec les animaux vivants (Direction des Etudes des Répertoires et des Statistiques de la MSA, 2018). Ces problèmes, et le stress engendré lors des manipulations de routine avec les animaux extrêmement peureux voire agressifs, dégradent les conditions de travail en élevage. La dégradation des conditions de travail impacte la satisfaction au travail qui est elle-même un facteur important de la motivation au travail (Hemsworth and Coleman, 2011). Les interactions avec l’Homme provoquent, pour l’animal réactif à l’Homme, une altération de son bien-être et de sa santé. Du point de vue de l’éleveur, le travail avec des animaux réactifs entraîne une diminution de son revenu mais également constitue une menace pour sa sécurité et sa satisfaction au travail. L’ensemble de ces raisons motive donc à s’intéresser à la réaction des animaux d’élevage à l’Homme et aux déterminants de cette réaction. 2. RÉACTION, RÉACTIVITÉ ET TEMPÉRAMENT : DÉFINITIONS DES CONCEPTS ET FACTEURS D’INFLUENCE 2.1. FONDEMENTS COGNITIFS ET ÉMOTIONNELS DE LA RÉACTION DES ANIMAUX FACE À L’HOMME Les animaux expriment un large panel de réactions face à l’Homme, allant de l’approche amicale à l’agression, en passant par la fuite ou la tolérance. Ces réactions sont le fruit d’interactions entre des facteurs externes et internes (voir Fig.1 en fin de partie pour un résumé schématique de ces facteurs). La manière dont l’animal perçoit et évalue la situation entre en jeu dans sa réaction (Boissy et al., 2007a). La réaction des animaux face à l’Homme fait intervenir des caractères généraux de la réactivité émotionnelle (Mormède, 1995). Des émotions négatives telles que la peur ou l’anxiété peuvent être générées par l’interaction avec l’Homme. Ces émotions traduisent les sentiments d’insécurité provoqués par un danger réel, dans le cas de la peur, ou un danger potentiel, dans le cas de l’anxiété (Boissy, 1995). Des comportements exprimant une perception positive de l’Homme par l’animal peuvent également être exprimés (anticipation, plaisir, relaxation) (Rault et al., 2020). La théorie de l’évaluation développée par Scherer, (1999) a offert un cadre conceptuel, au moins en partie, transposable à l’animal. Cette perception repose (i) sur des caractéristiques intrinsèques du stimulus : soudaineté, familiarité, prévisibilité, agréabilité ou non (ii) sur le niveau de conflit de l’évènement avec les besoins ou les attentes de l’individu et (iii) les possibilités d’adaptation offertes par l’environnement, la possibilité de contrôle de la situation par l’animal (Désiré et al., 2002). Suivant cette grille de lecture, les caractéristiques de l’Homme et du contexte de l’interaction, de même que l’issue des interactions précédentes déterminent la perception et la réaction de l’animal. Lors des interactions avec l’animal, l’Homme peut être plus ou moins actif, et son comportement va de l’immobilité à l’exercice d’une contrainte sur l’animal. Des éléments d’information et de communication (posture, expression faciale, communication orale, vitesse de mouvement...) de l’Homme sont des variables à prendre en compte comme facteurs d’influence majeurs (Grandgeorge and Boivin, 2019). Dans le cadre des manipulations, la valence des interactions Hommeanimal entre également en jeu (Hemsworth and Coleman, 2011; Waiblinger et al., 2006). Des manipulations à valence négative (coups, utilisation de l’aiguillon électrique) même d’intensité modérée entrainent de l’agitation et des réponses de peur face à l’Homme (Breuer et al., 2003; Ceballos et al., 2018a; Petherick et al., 2009). Au contraire, des interactions à valence positive, telles que le brossage, induisent un état de relaxation chez les moutons. Cet état est exprimé par une diminution du rythme cardiaque et moins de changements de posture, d’orientation de la tête ou des oreilles (Tamioso et al., 2018). Le caractère familier ou non de l’Homme et son comportement entrent également en jeu (Rault et al., 2020 pour revue). Par exemple, des ovins manipulés au préalable de manière positive par leur soigneur s’approchent plus facilement et se laissent approcher plus facilement par l’homme familier en comparaison d’un homme inconnu alors que des animaux manipulés de façon négative ne s’approchent pas et ne se laissent approcher par aucun humain (Destrez et al., 2013). Le second élément mis en avant par Désiré et al., (2002) est le niveau de conflit/synergie de l’évènement avec les besoins ou les attentes de l’individu. L’état physiologique de l’animal lors de l’interaction avec l’Homme entre en jeu. L’état de faim et de soif de l’animal peut par exemple, conditionner la motivation de l’animal à interagir ou non avec l’Homme. Par exemple, des moutons vont plus aisément accepter de se laisser approcher par l’homme quand ils ont faim et qu’ils sont en train de manger (Lankin, 1997). A l’inverse des vaches laitières en situation de privation alimentaire acceptent oins d’être amenées dans un coin d’un parc et de se laisser caresser par un manipulateur que les vaches alimentées (Bourguet et al., 2011). L’environnement social influence aussi les motivations des individus et joue un rôle dans la réaction face à l’Homme (Raussi, 2003). Un animal peut être plus ou moins facile à manipuler en présence ou absence de ses congénères (Grignard et al., 2000). Dans les groupes d’animaux, la peur de l’homme peut être transmise par des signaux comportementaux et olfactifs émis par les autres animaux (Waiblinger, 2009). Au contraire, leurs comportements calmes peuvent également apaiser leurs semblables. Par exemple, la présence de congénères apprivoisés réduit la distance entre l’Homme et l’animal non habitué à la proximité humaine (Lyons et al., 1988). La présence de la mère dans le jeune âge impacte aussi la réaction et la motivation du jeune lors du contact humain (ovins : Boivin et al., 2009; bovins: Krohn et al., 2003). Des poulains présents lorsque leur mère a bénéficié de contacts positifs (brossage, alimentation) avec l’Homme durant leur 5 premiers jours de vie présentent des distances inférieures et des contacts physiques plus fréquents avec l’Homme que les poulains dont les mères n’avaient pas été manipulées (Henry et al., 2005). Au-delà de ces réponses directes vis-à-vis de l’Homme, l’environnement physique influence la réaction des animaux. L’ambiance de l’environnement (éclairage, bruits) entre en compte (Grandin and Deesing, 2014; Willson et al., 2021). Le caractère familier ou non de la situation également (Boivin et al., 1998). Si l’interaction a lieu dans un endroit inconnu, la mesure de cet effet de nouveauté peut s’ajouter à l’évaluation de la réaction à l’Homme (de Passillé and Rushen, 2005). Au contraire, si l’environnement est familier, l’animal peut l’associer à des souvenirs de manipulation (Waiblinger et al., 2006). Par ailleurs, les interactions entre l’Homme et l’animal en élevage ont lieu lors de contextes variés : en plein air au champ, dans la stabulation, au cornadis, en couloir ou cage de contention... Ces divers environnements assurent plus au moins de contraintes physiques sur l’animal. Au regard du (iii) proposé par Désiré et al., (2002) (c.-à-d. les possibilités d’adaptation offertes par l’environnement, la possibilité de contrôle de la situation par l’animal), ce niveau de contrainte est susceptible d’agir sur la réaction de l’animal en lui assurant, plus ou moins, la possibilité de fuir l’interaction humaine. INTRODUCTION GÉNÉRALE L’interaction avec l’Homme génère des émotions chez l’animal conduisant à des réactions comportementales et physiologiques. La compréhension de l’émotion générée passe par l’étude de la situation en fonction de la manière dont l’animal l’évalue. Ainsi la prise en compte de l’état physiologique de l’animal, des caractéristiques de l’Homme et de l’environnement physique et social sont centrales pour la compréhension des réactions des animaux mis en contact avec l’Homme FIGURE 1. REPRÉSENTATION SCHÉMATIQUE (D’APRÈS BOURGUET, 2010, ET DÉSIRÉ ET AL., 2002) DES FACTEURS INTERVENANT SUR LA RÉACTIVITE DES ANIMAUX AU CONTACT DE L'HOMME ET INDUISANT LES RÉPONSES COMPORTEMENTALES ET NEUROPHYSIOLOGIQUES 2.2. DE LA RÉACTION À LA RÉACTIVITÉ À L’HOMME Au sein d’une même population, les individus présentent des réactions qui leur sont propres et qui sont cohérentes dans le temps et à travers les situations. Chez les animaux d’élevage, cette notion de cohérence face à une situation s’applique aux réactions à l’Homme (Grignard et al., 2001; Lansade and Bouissou, 2008; Mazurek et al., 2011a; 12 INTRODUCTION GÉNÉRALE Waiblinger et al., 2003). Ces réactions cohérentes face à l’Homme suscitent un vif intérêt. Le terme de réactivité à l’Homme est utilisé, illustrant un trait à part entière (Lansade and Bouissou, 2008 - équins). La réactivité à l’Homme peut se voir comme étant le produit de la construction d’une relation pouvant se baser sur différents traits de personnalité (dépendants de facteurs génétiques et historiques). Le processus de construction des réactions des animaux face à l’homme est un phénomène ayant lieu tout au long de la vie de l’animal (Price, 1999). Il passe par des processus d’apprentissage et de familiarisation, notamment lors de périodes sensibles dans la vie de l’animal. Bien que les effets soient moins marqués que chez les jeunes, l’exposition des adultes à l’Homme et à ses manipulations peut contribuer à réduire ou augmenter leur peur. Par exemple, les interactions douces et régulières sur des génisses laitières réduisent leur peur de l’Homme, indépendamment de leur expérience dans le jeune âge (Lürzel et al., 2016; Shahin, 2018). Ces interactions, tout au long de la vie, tissent la relation homme-animal. Cette relation inter-individuelle est définie comme le degré de proximité ou de distance entre l’Homme et l’animal, c’est-à-dire, la perception mutuelle qui se développe et s’exprime dans leur comportement mutuel (Estep and Hetts, 1992). C’est un processus dynamique qui repose sur chacune des interactions entre l’Homme et l’animal, en effet chaque interaction a une incidence sur la nature et la perception des futurs contacts (Waiblinger et al., 2006) (Fig. 2). La quantité, la prévisibilité et la nature des contacts (c.-à-d. générant des émotions négatives ou positives), vont ainsi construire la relation entre le soigneur et l’animal (Boivin et al., 2003; Hemsworth and Boivin, 2011). Cette relation se développe entre deux individus se connaissant, le soigneur et l’animal, mais il a été mis en évidence que l’animal est capable de transposer son expérience avec un autre humain (Brajon et al., 2015; Breuer et al., 2003, 2000; Hemsworth and man, 2011). Une part de la réactivité à l’Homme se construit au cours du développement de l’individu. Il existe des périodes clés pour le développement de ces réactions. Il s’agit des « périodes sensibles », des périodes de brusque réorganisation où l’animal est plus facilement déstabilisé par les perturbations de son environnement (Bateson, 1979). La naissance, le jeune âge et le sevrage ont été identifiées comme ces périodes sensibles et constituent des phases clés pour l’établissement de la réactivité des animaux face à RODUC GÉNÉRALE l’Homme (Boivin et al., 1992). Ainsi, les ongulés d’élevage (caprins, équins, bovins, ovins, porcins...) manipulés régulièrement dans le jeune âge sont généralement moins peureux face à l’Homme que leurs congénères non-manipulés (Boissy et al., 2007b). FIGURE 2. LES DIMENSIONS ÉMOTIONNELLES INFLUENÇANT LA RÉPONSE DE L'ANIMAL À L'HOMME (HEMSWORTH AND BOIVIN, 2011 D'APRÈS WAIBLINGER ET AL., 2006).
29,317
01/hal-univ-bourgogne.archives-ouvertes.fr-hal-02060138-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
3,329
5,030
RÉSUM Le corps sain et mince prend la forme de la norme corporelle dominante dans nos sociétés occidentales. Un corps en bonne santé est un corps svelte, un corps ayant une alimentation équilibrée et un apport énergétique en balance avec l'apport nutritionnel. La publicité, les magazines, l'environnement visuel urbain nous renvoient à cette notion de norme dominante : la minceur. Pourtant d'après l'enquête OBépi réalisée en 2012, 15 % de la population française est en situation d'obésité. Le poids devient alors une déviance venant s'ajouter aux maux d'une population socio-économiquement défavorisée. En effet, l'obésité est la maladie du pauvre (comme le fut la maigreur à une époque), la maladie de la malbouffe, des mauvais comportements. Hommes et femmes ne sont pas non plus égaux face à l'obésité, elle touche plus volontiers les femmes que les hommes, particulièrement celles appartenant à un milieu social populaire. Schématiquement, plus une femme possède de diplômes ainsi qu'un poste à responsabilité, moins elle a de risque d'être en surpoids et en obésité. À l'inverse, plus un homme détient un poste à responsabilité et plus les risques d'obésité augmentent (« prestige historique de l'embonpoint des homme d'affaire » selon Olivier Lepiller, 2015). D'où viennent alors ces différences? Nous réfléchirons à ces questions, à travers le prisme de la chirurgie de l'obésité bariatrique (en grec baros signifie poids et iatros : médecin). Pour quelles raisons se fait-on opérer de son poids? Quelles motivations sont mises en avant selon que l'on soit un homme ou une femme? Sont-elles différentes? Nous émettons l'hypothèse que la motivation à se faire opérer d'une obésité va plus loin que l'injonction médicale et que celle-ci est différente en termes de genre. Cette intervention s'appuiera sur l'analyse des entretiens semi-directifs conduits auprès de patients en situation d'obésité et réalisés par l'Observatoire Régional de la Santé, dans le cadre d'un état des lieux de la filière de prise en charge de l'obésité chez les personnes adultes de BFC en 2017. Introduction Le genre de l'obésité Chirurgie de l'obésité et motivations liées au genre Et les hommes? V. Conclusion TEXTE I. Introduction Cet article s'appuie sur un état des lieux réalisé par l'Observatoire Régional de la Santé Bourgogne-Franche-Comté. L'ORS est une association à but non lucratif qui a pour mission d'observer et d'analyser la santé des habitants de la région. Pour ce faire nous réalisons, sur commande de différents partenaires, des enquêtes, des états des lieux, des diagnostics, des évaluations des politiques publiques ou d'actions dans le but, notamment, d'éclairer les décisions et les besoins des différents acteurs dans le domaine sanitaire et social. Le but de l'étude dans laquelle s'inscrit ma participation à ce séminaire consistait à réaliser un état des lieux de la prise en charge de l'obésité chez l'adulte en Bourgogne-Franche-Comté. Comprendre comment s'organise cette filière sur le territoire, quels sont les professionnels mobilisés dans ces parcours de prise en soins, comment ils se coordonnent mais également recueillir les expériences et vécus des patients. Une enquête par questionnaire auprès de professionnels a été menée ainsi que la réalisation d'une vingtaine d'entretiens semi-directifs auprès de patients. Nous avons tenté, grâce à notre travail de terrain réalisé au cours de l'enquête, de dégager, après publication du rapport, des éléments liés au genre et à l'obésité afin de correspondre aux attentes de ce séminaire. II. Le genre de l'obésité Selon l'enquête Obépi[1], l'obésité touchait en 2012 près de 15 % de la population française. C'est une maladie chronique d'origine multifactorielle résultant d'interactions entre des facteurs soit environnementaux ou bien comportementaux, sociaux, génétiques et biologiques. L'obésité découle généralement de situations psychologiques, économiques sociales compliquées. Elle touche, en effet, davantage les classes populaires, « effectivement les individus occupant les places sociales les plus précaires ont toutes les chances d'avoir un corps dénigré et stigmatisé par la grande majorité des membres de l'espace social[2] ». De même, l'accès à une nourriture dite « saine » et les choix alimentaires contribuent également à creuser l'écart entre classes aisées et populaires. Une enquête par entretiens qualitatifs, menée par les sociologues Faustine Régnier et Ana Masullo, concernant l'intégration des normes d'alimentation et l'appartenance sociale, montre d'une part que les populations dites les plus précaires se sentent moins concernées et impliquées par les messages de prévention primaire du « Bien manger » véhiculés notamment par le programme national nutrition santé (PNNS) et deuxièmement que les limitations financières constituent un frein à l'application des normes alimentaires : « Les fruits et les légumes sont sous-consommés par les membres des classes populaires du fait de la cherté de ces produits »[3]. À l'inverse selon elles, des consommateurs les plus aisés pour lesquels la contrainte budgétaire à l'achat de fruits et légumes est une manière d'indiquer qu'ils ont les moyens de se procurer ces aliments et de mesurer l'impact des efforts auxquels ils consentent. Pour en venir à la question du genre, hommes et femmes ne sont pas obèses de la même manière. Physiologiquement déjà, les zones corporelles de prise de poids ne sont pas les mêmes selon que l'on soit un homme ou une femme. L'obésité dite androïde (chez les hommes) est principalement localisée sur la zone abdominale, l'obésité gynoïde (chez les femmes) est, elle, essentiellement localisée sur les cuisses, les hanches et les fesses. Par ailleurs, les femmes des classes économiques défavorisées sont particulièrement concernées par le surpoids et l'obésité. Celles qui sont le moins bien payées et qui vivent dans les milieux les plus précaires sont les plus corpulentes à l'inverse des hommes pour lesquels la corpulence va plus souvent de pair avec un statut ou un revenu élevé[4]. Ce sont les premières différences donc. Les femmes sont également plus nombre que les hommes à avoir recours à la pratique de régime alimentaire dans le but de réduire leur poids [5]. Elles ont aussi plus souvent que les hommes, à proportion égale, recours à une intervention chirurgicale liée à l'obésité. Comment peut-on expliquer cette différence? Nous présentons ici quelques rapides éléments sur la chirurgie bariatrique (ou chirurgie de l'obésité). Ces interventions lourdes correspondent à différentes techniques et sont soumises à des critères précis. Elles s'adressent à des personnes en obésité sévère ou morbide dont l'Indice de Masse Corporelle dépasse 40 (ou 35 en présence de comorbidités associées)[6]. Les techniques chirurgicales employées sont des techniques de restrictions, sleeve et by-pass sont les plus couramment utilisées. La sleeve consiste à inciser une partie de l'estomac dans le but de limiter l'importance du bol alimentaire. Le by-pass, plus complexe, est irréversible et consiste à sectionner une grande partie de l'estomac ainsi qu'à bouleverser le parcours du circuit alimentaire. Les aliments sont dérivés plus rapidement vers les intestins et passent peu de temps dans l'estomac. Le nombre de personnes opérées augmente rapidement en France : 15 000 en 2006, 30 000 en 2011 et autour de 44 000 en 2013[7]. Ces opérations ne sont pas anodines et demandent un investissement constant de la part des professionnels et des patients. Une longue préparation d'au moins six mois, accompagnée d'une prise en charge nutritionnelle, psychologique et médicale importante est nécessaire. Grâce aux entretiens réalisés au cours de l'état des lieux nous avons travaillé à mettre en lumière les motivations mises en avant par les acteurs, selon leur genre, à subir une intervention chirurgicale liée à l'obésité. Nous émettons l'hypothèse que la seule raison médicale est importante et fait partie du processus décisionnel mais qu'elle n'est pas le seul facteur de décision et que ces facteurs de décision sont différents selon le genre des patients. III. Chirurgie de l'obésité et motivations liées au genre « Je voulais être standard, être comme tout le monde, tout ce que je voulais c'était maigrir! ». Les premières motivations mises en avant par les femmes rencontrées lors des entretiens, particulièrement les jeunes femmes en âge de procréer, sont d'ordre esthétique et normatif. Il semble que les femmes sont davantage assujetties que leurs collègues masculins aux normes dominantes de l'apparence, en l'occurrence du « corps mince »[8]. De manière globale, le corps des femmes est soumis à des contra intes, que l'on peut citer : l'utilisation des talons, de la cosmétique, des corsets ou des « femmes plateaux » en Afrique etc. Le corps des femmes appartient au social tantôt assimilé à des questions de reproduction (allaitement, grossesse), tantôt à des questions de séduction (lingerie, apparition de rides, etc.). Ce contrôle et ces normes corporelles ont varié au cours des époques. Au XIXe siècle, les corps bien nourris des femmes sont exposés et étaient synonymes de prospérité et même le signe d'une sexualité débridée. C'est à partir des années trente et l'arrivée des congés payés et du tourisme que le corps commence à se dévoiler. Les contrôles de l'alimentation et de l'activité physique vont alors devenir des signes de qualité, de bonne santé du corps. L'exhibition induit des normes esthétiques à suivre et à tenir. Le corps « gros » est un corps non contrôlé, sans volonté, se laissant déborder par ses émotions. La minceur devient un signe de distinction et de succès : surveiller son poids, son corps et son alimentation est une pratique normalisée en particulier chez les femmes. Toutes les femmes interrogées lors des entretiens avaient suivi des régimes alimentaires dans le but de réduire leur poids et ce souvent dès la puberté. « J'ai commencé à faire des régimes à l'âge de 14 ans, je me trouvais grosse alors que ce n'était pas du tout le cas, j'étais même plutôt mince ». Une carrière diététique se met en place, s'en suit une succession de régimes parfois grâce à l'aide de professionnels de la nutrition, parfois grâce à de l'automédication avec l'utilisation de diurétiques, laxatifs. « J'ai commencé vers 15 ans, ma mère me trouvait grosse. J'ai commencé à prendre des laxatifs, ça marchait bien, c'était rapide ». Par ailleurs, les normes esthétiques viennent se confondre avec les recommandations médicales et biologiques. Les messages et programmes de prévention primaire, les discours de santé publique et plus généralement les normes définies par l'OMS (grâce à l'utilisation de l'IMC – Indicateur de masse corporelle) semblent accentuer l'idée de contrôle de son corps, de son alimentation, de ses constantes (fréquence cardiaque, nombre de pas par jour, glycémie etc.) dans le but de ralentir l'apparition de pathologies dites « évitables », chroniques, telles que les maladies cardiovasculaires, le diabète ou l'hypertension. L'injonction à mener une vie saine, à préparer son futur vieillissement dans le but de vivre le plus longtemps sans incapacités peut amener à une moralisation du mode de vie et des pratiques. La motivation à se faire opérer, liée à l'esthétisme, semble devenir secondaire avec l'avancée en âge. Une nouvelle priorisation apparaît dans les propos des enquêtées : celle du « bien vieillir » et de pouvoir par-là investir un nouveau rôle : celui de grand-mère, de « mamie ». Pouvoir s'occuper de ses petits-enfants, être en mesure de maintenir le lien familial et de « tenir les rôles de pilier des relations familiales principalement dévolue aux femmes[9] ». « Mes enfants et mon mari étaient un peu réticents par rapport à l'opération mais je me suis dit que c'était pour moi et que j'allais avoir des petits-enfants et que j'allais pas pouvoir courir avec eux ». « Sans l'opération j'aurais pas été capable d'aller chercher mes petits-enfants à l'école par exemple et ça je l'aurais mal vécu ». Dans sa thèse « la fabrique de la ménopause », Cécile Charlap explicite la notion de « ménopause sociale »[10], qui au-delà des fonctions reproductrices s'atténuant à la fin de la quarantaine, peut apparaître comme une mort sociale. Le désir de mincir intervient alors moins comme un moyen de séduction et de se conforter à une norme dominante de reproduction que comme le moyen de garder la forme et de s'éloigner le plus possible de la dégradation physiologique liée au vieillissement. On observe cette injonction à un vieillissement actif dans certains messages, affiches de prévention liée au vieillissement. La recherche en gérontologie, notamment, associe le « bien vieillir » à des expressions telles que « vieillissement réussi », « actif », « productif ». Si le bien-être est mis en avant par la prévention, elle peut s'avérer culpabilisatrice. Certaines enquêtées (si ce n'est toutes) ont également manifesté le désir de se faire opérer afin d'échapper à la violence sociale que peut impliquer l'obésité. Elles mettent en avant des répercussions sur leur environnement proche, des répercussions familiales, amicales, professionnelles et médicales. « Quand j'ai fait ma sleeve je l'ai faite par rapport à moi parce que ma santé en dépendait mais je l'ai aussi faite par rapport à mes enfants et mon mari parce que le regard des autres étai très mauvais surtout vis-à-vis des enfants. Je voulais pas que quand ma fille arrive au collège, elle ait honte de moi et que les gens disent « regarde ta maman elle est grosse », je voulais pas de ça, voilà pourquoi j'ai entrepris les opérations. » « Les représentations péjoratives se dévoilent dans des actes de stigmatisations (d'après les théories d'Erving Goffman, Stigmate. Les usages sociaux des handicaps, 1963, trad., éditions de Minuit, 1975) par des moqueries, des remarques négatives, des insultes ou par des gestes d'évitement, de peur ou des regards critiques[11] ». La question du poids et des stigmatisations vécues à l'intérieur de la relation avec les professionnels de santé a été également largement abordée par nos enquêtées, en particulier dans la prise en charge liée au désir d'enfant. Il est, par exemple, quasiment impossible d'avoir recours à un processus de procréation médicalement assistée si l'IMC de la patiente dépasse 30. Une femme me rapporte les propos de son gynécologue au cours d'une consultation de routine : « Madame ça va pas être possible l'écho là, avec tout ce gras je ne peux rien voir! Si vous voulez un enfant, il va falloir perdre, sinon ça va pas aller! » Pour conclure cette partie nous citerons Jean Anthelme Brillat Savarin : « avoir une juste proportion d'embonpoint, ni trop ni peu est, pour les femmes, l'étude de toute leur vie ». IV. Et les hommes dans tout ça? Nous avons rencontré très peu d'hommes au regard du nombre de femmes au cours de ces entretiens, quatre seulement sur vingt. Il serait alors bon de creuser davantage cette question auprès des hommes. Toutefois, nos analyses montrent que l'esthétisme semble beaucoup moins prioritaire dans la décision de se faire opérer et donc de maigrir. Le rapport à l'alimentation ainsi qu'à la corpulence semblent moins connotés négativement. « Les hommes manifestent une certaine complaisance pour leur propre masse graisseuse quand celle-ci semble confirmer la puissance virile de leur corps[12] », un rapport à la virilité et au corps qui leur permet une relation moins obsessionnelle à la nourriture et donc à la minceur. L'embonpoint masculin est davantage valorisé, représentant l'hédonisme et peut véhiculer l'image d'un personnage bon vivant. L'alimentation peut être un atout, un objet de négociation dans un contexte de rapport de force, au cours d'un repas professionnel par exemple ou bien d'un repas lors d'un rendez-vous galant. « Obèse? Mais moi je ne me sentais pas obèse, je ne me suis jamais senti obèse. » Le surpoids masculin n'a pas les mêmes répercussions sociales, notamment dans le domaine professionnel à la différence des femmes, selon le sociologue Thibaut de Saint Pol : « L'obésité masculine n'entraîne aucune pénalité sociale notable chez les hommes : la probabilité d'être dans les plus hauts salaires augmente légèrement avec le surpoids[13] ». Toutefois, si celles-ci sont davantage préoccupées que les hommes à perdre du poids, cette préoccupation est également partagée par une quantité non négligeable d'hommes[14]. Les caractéristiques de beauté masculine semblent moins se rapporter à la notion de minceur qu'à la notion de force et de muscles. Le corps désirable masculin n'est pas toujours un corps mince. Nous émettons l'hypothèse que les stratégies mises en place pour perdre du poids ne sont pas les mêmes selon le genre. Le sport semble davantage investi par les hommes au contraire de la pratique d'une alimentation spécifique (régime) pour les femmes, qui reste symbole de plaisir et de partage pour les hommes. « Je fais beaucoup de sport mais vraiment j'essaye de ne pas me priver sur la nourriture et de profiter le week-end avec les amis ». Au regard de nos entretiens, les hommes mettent en avant leur santé comme première raison venant justifier l'opération bariatrique. La question des limitations physiques en rapport avec l'activité professionnelle ou la pratique de loisirs sportifs a également été abordée, notamment dans le cadre de professions nécessitant une légitimité autoritaire, charismatique, telle qu'agent dans une structure pénitentiaire par exemple. « Je ne pouvais plus continuer comme ça, j'ai des hommes sous mes ordres. Je passais pour le gros gentillet auprès des détenus ». Cependant, le peu d'hommes rencontrés au cours de cette enquête ne nous permet pas d'aller plus loin dans nos analyses. V. Conclusion Pour terminer, quelques questionnements liés à la chirurgie réparatrice. Elle est la dernière étape qui vient clore ce parcours de prise en charge. La chirurgie réparatrice est nécessaire lorsque la gêne de l'excès de peau liée à une perte de poids rapide, devient importante pour les patients. Il , dans ce cadre, des critères fixés par la sécurité sociale donnant lieu à des remboursements des interventions. Certaines parties du corps, telle que la poitrine sont, en effet, prises en charge selon des conditions bien précises. L'opération est remboursée dans le cadre exclusif d'une réduction mammaire dès lors qu'il est possible d'extraire 300 grammes de chaque côté. Nous livrons ce témoignage d'une enquêtée : « Moi j'ai pas de prothèse, on me les a juste remontés parce que c'était effectivement pas beau et que ça me faisait mal au dos, je pouvais pas faire de jogging! Pour moi c'est pas de la chirurgie esthétique c'est vraiment de la réparation. Là c'est abimé par l'obésité, c'est pas du luxe. La poitrine maintenant ils remboursent à deux conditions c'est soit une diminution mammaire mais c'est 300 grammes à enlever par sein ou alors à l'occasion d'un cancer du sein mais pour la chirurgie bariatrique c'est plus pris en charge ». D'autres interrogations découlent de notre enquête et se porteront sur les différences en termes de prise en charge et remboursement de la chirurgie réparatrice selon le genre du patient : comment hommes et femmes appréhendent cette chirurgie réparatrice possédant de minces frontières avec la chirurgie esthétique? Les recommandations de la Haute Autorité de Santé sur le sujet sont maigres, quels critères pour juger de l'esthétisme ou du confort? Ces critères sont-ils différents selon le genre des patients? NOTES [1] Inserm, Kantar Health, Roche, Obépi : Enquête épidémiologique nationale sur le surpoids et l'obésité, 2012 [2] Juliette Froger-Lefebvre, « Le Poids des corps », Actes de la recherche en sciences sociales, 2015, n° 208, Lectures [En ligne], Les comptes rendus. [3] Faustine Régnier, Ana Masullo, « Obésité, goûts et consommation. Intégration des normes d'alimentation et appartenance sociale », Revue française de sociologie, 2009/4, vol. 50, p. 747773. [4] Thibaut de Saint Pol, « L'obésité en France : les écarts entre catégories sociales s'accroissent », Insee Première, 2007. [5] Id., « Poids et régimes alimentaires en Europe », Revue d'étude en agriculture et en environnement, 91 (2), p. 129-152. [6] Haute Autorité de Santé, Synthèse des recommandations de bonne pratique : Obésité : Prise en charge chirurgicale chez l'adulte, 2009. [7] « Évolution du recours à la chirurgie bariatrique en France entre 2008 et 2014 », Bulletin Epidémiologique Hebdomadaire, 06-03-2018, n° 5-6, p. 84-91. [8] David Le Breton, « D'une tyrannie de l'apparence : corps de femmes sous contrôle », dans Éthique de la mode féminine, Paris, Presses Universitaires de France, « Hors collection », 2010, p. 3-26. [9] Olivier Lepiller, « Moi, je ne demande pas à rentrer dans une taille 36. Recourir à la chirurgie bariatrique après 45 ans », Journal des anthropologues, 2015/1, n° 140-141, p. 235-255. [10] Cécile Charlap, La fabrique de la ménopause : Genre, apprentissage et trajectoires.
25,534
21/dumas.ccsd.cnrs.fr-dumas-01689431-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,231
11,207
La rédaction web en milieu people, les enjeux d'une profession en mal de définition Jocelyn Wissocq Master mention Information Communication Documentation (ICD) P arcours IDEM M Mission effectuée du 1er avril 2011 au 30 septembre 2011 a Exanov A Hellemmes La rédaction web en milieu people, les enjeux d'une profession en mal de définition : Sophie Chauvin (Maître de Conférences, Université Lille 3) Pierre Waché Soutenu en (Tuteur professionnel & développement / Conception Graphique) septembre 2011 Université Charles de Gaulle, Lille 3 (Campus Pont de Bois) BP 60149, 59653 Villeneuve d'Ascq Cedex Année Universitaire 2010/11 En préambule remerciements les aide et à ce mémoire, sincères je souhaitais aux personnes qui ont contribué à l'élaboration de ce adresser mes qui m' leur insi qu'à la cette année universitaire . Je tiens à remercier sinc e Sophie Chau vin, qui, en tant que Directrice de mémoire , s' toujours montrée à l'écoute et tout au long de la réalisation de ce Mes remerciements s'adressent mon tuteur qu'à son professionnel, pour également à Monsieur Pierre Waché, la confiance qu'il a su m'accorder, ainsi associé Gauthier Etchepare. J'ai ainsi pu travailler de façon bénéficiant de autonome tout en mon sa été disponibilité et de conseils avisés sur travail. Je n'oublie pas mes parents pour mon mémoire. amie Charlotte Druelle sans leur soutien et leur patience ainsi qui ma ré ussite universitaire n'aurait que pas possible. Enfin, j'adresse mes plus sincères remerciements à tous mes proches et amis, qui m'ont toujours soutenu et encouragé au cours de la réalisation de ce mémoire. 1 La rédaction web 1. L'information enjeux d'une profession La version web des magazines 1.1.2. Les pure 6 7 magazines en ligne 1.1.1. papiers players Élaboration d'une grille d'analyse de ces magazines 12 Les critères essentiels 1.2.1. 1.2.1.1. Critères centraux 1.2.1.2. 1.2.2. Proposition d'une nomenclature 1.3. Une uniformisation culturelle 1.3.1. Toute l'information globalisée? sur un 18 même plan très différentes pour un même traitement graphique 1.3.1.1. Des thématiques 1.3.1.2. Absence de délimitation entre les thématiques. 1.3.2. 2. milieu people, les mal de définition people et tendance chez les 12 - 25 ans 1.1. Panorama des 1.2. en Une notion d'éthique floue Web 2.0 et informations 25 2.1. L'immédiateté de l'information 25 2.1.1. L'impact des médias sur les jeunes publics 2.1.2. Comprendre les digital Natives 2.1.3. L'influence des réseaux sociaux en 30 2.2. Rendre l'information accrocheuse 2.2.1. Le titre, la base d'un article 2.2.2. Contenu et mise 2.3. Une réécriture 3. en réussi forme perpétuelle de la veille 2.3.1. Les 2.3.2. Internet bouscule la rédaction sources 32 Gossy, la difficulté de se positionner sur le Web 37 3.1. 37 Gossy passé au crible d'une grille d'analyse 3.1.1. Taille des articles 3.1.2. Ton 3.1.3. 3.2. Une employé Aspects communautaires ligne éditoriale pour Gossy 3.2.1. 3.2.2. Un site Des « positif » catégories trop limitées? 3.3. Traiter l'actualité avant la 3.3.1. 3.4. 40 concurrence 43 La veille 3.3.1.1. Twitter 3.3.1.2. Développement de partenariats 3.3.1.3. Les Perspectives pour journaux étrangers Gossy : quelques pistes Exanov est Gauthier projet qui un Etchepare, et qui a a été initié 2007 par Pierre Waché et rapidement évolué. Très tôt, l'entreprise intègre le pré-incubateur Cré'lnnov son en au sein de l'Université de Lille 1 pour activité de création de site Web. En avril 2009, l'agence web Exanov s'installe au sein de la Ruche Technologique d'Hellemmes. La Ruche Technologique du Nord fait parti du réseau Ruche, qui fait prend part au d'Entreprises. Le Réseau Ruche est financé que par le et accompagnant, et développement Exanov aux de de permettant en particulièrement adapté cette par le Conseil Général, ainsi les partenaires institutionnels. Il permet de soutenir la création d'entreprises La Réseau des Pépinières projets, s'installer conseillant, en dans un cadre jeunes entreprises. possède deux grandes orientations distinctes. première concerne la création sur-mesure de sites web. Dans orientation, il s'agit de satisfaire les besoins ponctuels d'une clientèle qui souhaite confier la réalisation de leur projet web à des professionnels. L'autre orientation est bien différente, des sites web puisqu'il s'agit de développer appartenant à Exanov, dans le but de les rentabiliser via la publicité. Il s'agit donc de générer un maximum de trafic sur les sites web prévus à cet effet. Pour l'instant, deux sites constituent les piliers de cette orientation d'actualités : Stooyet, qui est qualifiées de « un jeunes réseau social. Et Gossy, un magazine » et « positives ». 1 C'est dans le cadre de cette deuxième orientation que engagé fin en tant que stagiaire pour une période de 6 mois (de début avril à septembre), en mars j 'ai été en tant que rédacteur web pour le site web Gossy. Lanc 2011, j'ai donc pu suivre l'évolution graphique, ergonomique, et même éditoriale du site web. Gossy est réalisé l'édition et la avec Wordpress. Ce CMS permet de faciliter publication de contenus, grâce à un back office clair et efficace, aussi bien pour les gestionnaires que pour les rédacteurs. L'affichage chronologique des différents billets est particulièrement adapté à un magazine pour lequel l'immédiateté de l'information est très importante. Il peut Gossy être intéressant de décrire les grandes étapes de la vie de en tant que site web. On distingue tout d'abord l'évolution du trafic. Sa véritable vie rédactionnelle débute en et avril dernier avec l'intégration de deux stagiaires (Marie Drache, de la promotion master IDEMM 2010/2011, moi-même). A partir de là, il aura fallu attendre quelques mois pour voir augmenter sensiblement la fréquentation du site web (référencement par Google Actualité en courant avril, qui apparaît très clairement sur le graphique.) Davs -Views oer Weeks Months week 2 Enfin, on distingue l'évolution graphique et ergonomique du site web, qui n'a pas eu d'impact réellement significatif sur la fréquentation du site. Au de cours mémoire, ce nous nous intéresserons cependant uniquement à la seconde forme graphique qu'a prise le site web (sa forme actuelle). En effet, cette mise stage (un forme est apparue assez tôt dans le en plus d'un mois après peu mon arrivée), et garde les mêmes thématiques d'articles (sport, multimédia, people, musique et cinéma). L'évolution de la fréquentation est essentiellement induite, d'une part dans un souci de coller au plus près des pré-requis de Google, d'autre part par une évolution dans la rédaction des différents articles qui font vivre le site web. Ma mission elle-même. Entre exercices de principale est d'ailleurs la rédaction style et recherches d'efficacité, d'autres activités ont sous-tendu cette tâche élément en quotidienne : la veille, qui constitue un majeur du travail, puis la sélection des thématiques les plus à même de susciter l'intérêt des lecteurs du site web. Dans la où mesure maximum de trafic sur travail avait pour objectif de générer un le site web, il semble nécessaire de revenir sur la technique de rédaction rédactrice de mon que j'ai développée aux côtés de la seconde Gossy. La veille est le point de départ du travail d'un concepteur rédacteur. Un espace netvibes (agrégateur de contenu) a été constitué dans représentatifs ce sur cadre, afin de regrouper les flux des sites web les plus la thématique pertinente sélectionnée, supplémentaires article sur en question. Une fois l'information la plus il suffit de rassembler 2,3 voire 4 sources le même sujet, pour compléter et optimiser le meilleur possible sur la question. 3 Une technique de rédaction adaptée a un besoin de rendement, et est très loin des considérations journalistiques classiques. C'est le résultat de l'influence du Web 2.0 entre autre chose, étant donné que, le plus souvent, les pure players (les médias uniquement présent en ligne qui se financent par abonnement ou par la publicité) ont tout intérêt à • Multiplier les contenus • Obtenir et diffuser l'information le Il convient destination d'un se divise Multimédia. « positives plus rapidement possible également de mentionner la difficulté éprouvée à cerner la thématique du site. En effet, Gossy site : en se présente comme un magazine à public jeune (une tranche d'âge de 15-25 ans). Aussi, le 5 catégories Enfin, le site People, Cinéma, Musique, TV & Séries et : doit comporter que des actualités dites ne ». Ainsi, en tant que rédacteur, j'ai rapidement été confronté à des contradictions d'ordre éthique. D'un côté, à la volonté de respecter ligne éditoriale et d'apporter une une information honnête et originale. De l'autre, la nécessité de générer un important trafic tout en restant gratuit pour l'utilisateur. Un travail entre journalisme et blogging qui soulève de nombreuses questions, notamment transmission de l'information et sur sur les l'influence du web 2.0, sur la problèmes liés à la paternité d'un article. 4 Enfin, l'aspect communautaire constitue la dernière approche du métier. Présente dans les journaux classiques, cet aspect prend importance particulière chez développer la communauté susciter l'envie rédactions de un public jeune (entre 15 à 25 ans). Mais ne passe pas réagir passe Google livrent se une uniquement par le texte. Certes, avant tout par les techniques de évoquées plus haut, mais Facebook et une ce loin d'être suffisant. A l'heure où bataille sur le terrain des réseaux sociaux, des fonctionnalités s'avèrent essentielles pour fidéliser un public. Pour comprendre comment Gossy peut s'insérer dans cet espace virtuel d'informations, il convient dans un concurrence, et d'établir une premier temps d'observer la nomenclature des stratégies qui sont employées dans le même champ thématique. Il s'agit ensuite de par ce biais l'impact des (notamment du web 2.0) sur nouvelles technologies de cerner l'information la transmission de l'information. Et enfin, de comprendre comment le site web Gossy peut et devrait s'intégrer dans ce paysage. L'information Le terme être mal peop/e et tendance chez les 12 information « est souvent individu nuances. ou un ans sur dans la suite de notre exposé. Si la définition du terme dans certaines 25 porteur de plusieurs sens et peut interprété. Aussi, il convient de revenir entendons par ce terme sur » - plusieurs dictionnaires, ce que nous nous revenons décelons nous Ainsi, l'information peut désigner l'action d'informer un de le tenir groupe, au courant des événements mais également, au-delà de tout événement, tout fait, tout jugement porté à la connaissance d'un public plus ou moins large, textes, de discours, de sons. Le terme lui que les événements actuels intéressant Comme a pu telle, constitue traitée pour « et actualité un forme d'images, de » ne regroupe le définir François-Bernard Huyghe, l'actualité en soi une un quant à domaine d'activité. tant que en information, à partir du moment où elle est être diffusée (puisque l'actualité devient alors destinée à comme « sous un message récepteur capable de l'interpréter et de la distinguer signifiante d'entre tous les signaux. Ils circulent à travers l'espace s'adressent à d'information quelqu'un »). Le site web Gossy est donc qui relaye l'actualité dans différentes thématiques un : site people, cinéma, musique, sport et multimédia. Dans le panorama magazines diffusant (thématiques totalité ou qui en Ainsi, certains suivre, nous nous l'information communes avec intéresserons donc généraliste cas nous ou amèneront à nous pencher que nous sur aux thématique le site web Gossy), et susceptible, partie, d'intéresser la tranche d'âge destinés à des tranches actualités de va en étudions. des magazines d'âges plus avancées, puisqu'ils présentent des qui peuvent être é par Gossy (bien que le traitement sera différent). 6 1.1. Panorama des magazines 1.1.1. La version web des papier Il semble » dans ce terme en sites web ne contradiction magazines papier, magazines aux les avec possédant qu'une édition des rédactions. Mais les choses placer magazines papier partie consacrée une Dans les ligne étrange de prime abord de parler de évoquons pas en « pure ligne. en sont pas magazine largement estampillé un les « « people » comme qu'un magazine comme l'Express. Prenons Une été lancée par l'Express poids lourds au cours présente comme un « un Voici, au exemple : du mariage princier entre Charlene Wittstock et le Prince Albert II de Monaco. Ainsi, le se » aussi simples. On ne peut même niveau rumeur a ligne. Nous en players», qui sont des ne magazines « magazine qui site d'informations politiques, internationales, économiques, sportives et culturelles » traité a une information qui semble, à première vue très légère. Et pourtant, en étudiant de plus près ce de cas rumeur. figure, Pour le nous cernons magazine en les implications politiques d'une telle lui-même, pas question « d'encaisser » les attaques en justice comme pourrait le faire un magazine comme Voici. Quand la principauté de Monaco a décidé d'attaquer en justice magazine, celui-ci jugées « fiables », a mis le travail des journalistes : 3 sources dont ils ont recoupés les informations. Il est impensable cette rédaction vérifications préalable. pour en avant le de publier ce type d'information, sans ces 7 Il existera donc parmi les magazines papier différents types de rédaction. D'un côté, les médias magazines les plus célèbres les people traditionnels, qui regroupent les Voici, Gala, Public, Closer etc. De l'autre, : magazines plus orientés journalisme, comme le montre l'exemple de l'Express. Entre les deux, il semble difficile d'établir marquée. Comment classer entre magazine un comme une zone de front bien Paris Match qui oscille journalisme politique et information people? Cette informations dans le classée selon diaporama un s'opère magazine. Dans le ordre d'images presque de permet dans surtout cas l'agencement des Voici, l'actualité people est uniquement chronologique. Seul mettre avant en les un informations susceptibles d'interpeller le lectorat. Nous notons le même type de fonctionnement chez Public, qui accentue cet aspect chronologique en horodatant chacun des articles dès la page certain de repérer l'information la plus récente d'un seul constat chez pouvons d'accueil. Ainsi, le lecteur est coup d'oeil. Même Closer, qui horodate également chacun de ses articles. Nous être amenés à l'heure exact de la cette volonté de mettre penser que publication de tel ou en avant tel article permet de cibler un public plus jeune, très ancré dans l'immédiateté de l'information, et qui aime être informé avant les autres. Dans des destinés à des publics un peu magazines supposément plus âgés, la datation n'apparaît pas de façon aussi flagrante. En revanche, nous observons des différences notables dans la rédaction des articles. Dans Gala plus longs et mieux construits est l'on ou Voici, les articles sont globalement que sur Closer ou Public. Le ton employé également beaucoup plus critique et acerbe dans les magazines suppose célébrités par lector at que à destination des publics plus âgés. L'admiration des les publics jeunes semble laisser place à un côté critique du plus âgé. 8 Au couleurs niveau employés sombres rouges purement esthétique, on remarque que les codes Gala et Voici sont proches, à savoir des teintes par semblables. Et si la sobriété rassemble assez magazines, les couleurs flashy rapprochent Closer et Public Il s'agit de teintes lectorat bien roses deux exemple. et de couleurs fluorescentes, qui suggèrent un plus jeune. 1.1.2. Les pure players Du côté des pure rencontré chez les nuances par ces sont players, nous retrouvons également le clivage portages web des magazines papier. Cependant, les encore plus nombreuses quand nous y regardons de plus près. Globalement, les domaines thématiques exploités par les pure players sont beaucoup plus vastes (ou, tout du moins, beaucoup plus catégorisés) s'explique en que celles rencontrées dans les magazines papier. Cela partie par la nécessité de générer un trafic important. Les magazines papier gagnent massivement leur argent sur les ventes en kiosque. Les pure players eux, doivent générer un trafic maximum pour pouvoir survivre et financer une rédaction. Ainsi, nous observons quasi systématique des thématiques Certains sites, comme Ado.fr, variées : sous forme de menus ou de dossiers. présentent même des catégorisations très Musique, Ciné, TV-Séries, Livres, Mode, Beauté, Santé, Psycho, Love, Jeux vidéo et Actu People. 9 Un autre les pure surtout une aspect très important et qui est très souvent présent chez players est l'aspect communautaire. Former quand la cible est un public jeune, priorité des sites web. Des sites Staragora, mettent une communauté, très jeune (10-25 ans), est ou comme Melty, Ado.fr, ou encore avant plusieurs fonctionnalités de ce type. D'une en part, nous constatons la possibilité de commenter l'information (cette fonctionnalité est mise et autres forums. sociaux. Les vont d'un avant). D'autre part, en Enfin, nous nous distinguons les chats retrouvons les incontournables réseaux sites sont très variables par ces cas Cependant, semble l'absence inenvisageable de pour un pure d'une communauté semble ces communautés de Staragora). quasiment player. En effet, la création et l'animation une condition sine qua non de la réussite d'un player. Certains favorisent une sites misent sur un autre aspect communautaire et grande qualité de rédaction et de choix éditoriaux. La réussite de la création d'une communauté solide peut tenir aux choix des façon de traiter forgeant une ces sujets choix de en un site comme Madmoizelle, aux a réussi à se en se constituer une (sans développer autant d'outils que sur Melty message instantanée, flux de commentaires continu etc.). Un ton humoristique très marqué et des sujets plus matures (qui ciblent d'ailleurs probablement plus âgée) constituent leur limiter lectorat donné, mais également à la identité éditoriale forte, exemple. Aucune apparaissant pour un sujets. Ainsi, communauté très solide par elles aspect communautaire très développé (le cas de Melty par exemple), à des fonctionnalités plus basiques (le pure : seuls rédacteurs de marque une population de fabrique. Loin de se l'entreprise, le site web permet également à des rédacteurs bénévoles et amateurs, de rédiger certains articles. La personnalité des rédacteurs et leur style d'écriture importent donc plus que la quantité d'informations et d'actualités traitées. Sur ce genre de site 10 web, accordons peu d'importance à l'immédiateté de l'information : nous le fond est fortement tendance, privilégié. Nous observons dans également marquée dans traditionnel, par des sites web un comme ce cas de figure une journalisme d' quête plus Arrêt sur image ou le Réseau Voltaire. A des l'opposé de cette personnalisation extrême, sites comme Pipole.net ou l'immédiateté de l'information et la s'opère bien souvent au Dontmiss, nous rencontrons qui favorisent fortement quantité d'actualités. Cette neutralité détriment de la qualité des articles, comme le soulignent de temps à autre certains lecteurs, qui commentent à souhait la qualité des traductions de textes l'absence textes en langue anglaise, ou bien encore d'analyse. Ici c'est principalement la rapidité qui prime. Les écrits magazines en sont bien plus courts que dans la plupart des autres ligne (une large place est accordée rarement au-delà de 200 mots par aux citations, on trouve article etc.). il Élaboration d'une grille d'analyse de ces magazines 1.2. Afin d'élaborer revenir sur une grille d'analyse des magazines l'ensemble des critères qui nous ont en ligne, il suffira de un premier tri des sites web étudiés. 1.2.1. Les critères essentiels 1.2.1.1. Critères centraux La taille moyenne des articles est un élément fondamental nous permettant d'identifier la nature d'un magazine. En effet, alors que certains se contentent de d'autres qui pourrait s'apparenter à ce une magazines réalisent des articles de fonds, nombreuses informations différentes. Les articles les souvent informations traitement plus fournis sont pour la diffusées ne doit pas nous ce par long, notamment pour induire en erreur. Certaines type de sites ne nécessitent pas un des mises à jour mineures sur l'évolution thématique (nouveautés dans le casting d'un film etc.). Les champs sémantiques et la formulation employés dans les articles est aussi effet, un un facteur important relative et pour déterminer la nature du site. même sujet pourra être traité de façon radicalement différente suivant la liberté accordée n'est de le multimédia, Allociné pour le cinéma). Cependant, pour la taille des articles En en regroupant l'apanage des sites spécialisés (Charts in France musique, 01net d'une simple dépêche, au rédacteur. Cette liberté est toute dépend essentiellement du public visé. Le champ sémantique cependant pas systématiquement révélateur d'un parti pris éditorial. 12 thématiques peuvent tout simplement amener un rédacteur Certaines lambda à employer tel ou tel ton particulier. Par exemple, certaines célébrités à la réputation très futile (Paris Hilton amènent souvent le rédacteur à faire preuve même si les magazines habituellement pas les l'accent Kim Kardashian) d'ironie ou de sarcasme, lesquels ils travaillent pour sur un ou ne mettent traitement ironique de l'actualité. Mais champs sémantiques employés, comme nous le verrons un peu plus loin, auront toujours tendance à s'uniformiser sur le net, notamment à cause de la réécriture d'articles à partir d'autres sites. Les rédacteurs s'inspirent souvent d'articles déjà écrits pour constituer les leurs, et semblent s'influencer mutuellement et créent donc 1.2.1.2. une opinion dominante. L'aspect communautaire est très certainement lui aussi central pour analyser un site. Alors que les magazines papier transposés sur le net comptent peu de fonctionnalités communautaires, certains sites (comme Melty) s'appuient essentiellement sur cette activité. Pour chaque site, il s'agira donc d'évaluer l'importance de la communauté. Plusieurs critères seront donc essentiels : • Présence • Concours et simple sur les réseaux sociaux et justification type de concours (deux types de concours : du concours pour gagner amenant une des lots jusqu'au participation active du public). Forum • Commentaires et (et activités sur ce dernier) développement d'une discussion autour des articles 13 Concernant la d'observer sont-elles couverture étendue et le traitement son ce qui peut arriver à l'activité musicale ou non), et l'activité musicale, il y a une thématique divers/insolites 1.2.2. en en un est fait. Les thématiques un site qui classe artiste (que cela ait site qui un en rapport avec parle réellement que de grande différence. Le site met-il l'accent sur un ne particulier? Y-a-t-il des limites (politiques, faits?). Proposition d'une nomenclature Voyons maintenant, dans la qui précises et précisées? En effet, entre musique tout une thématique, il s'agit en partie précédente, si réutilisant l'ensemble des critères énoncés nous pouvons permettant de situer les différents sites selon établir un axe une nomenclature abscisse / ordonnée. Un tel du graphique est utile pour établir une première représentation positionnement des magazines. Il permet également de remarquer que l'aspect communautaire est quelques magazines Madmoizelle pourrait sur se un cette facteur déterminant. En positionnant rapprocher de Voici. Si nous nous notons prenions que en compte la dimension communautaire, Madmoizelle serait, sans aucun doute, à l'opposé de nous le ce dernier, mais serait certainement plus proche de Melty que pensions. Une représentation en trois dimension semble donc plus judicieuse: Ton, Taille (contenu) des articles et Aspect communautaire. Les blogs ont tendances a adopter un style d'écriture très particuliers associé à taille des articles. Si le et que faible l'on observe une forte présence communautaire quelque soit la style et les champs sémantiques sont plus neutres une taille plus petite présence d'outils communautaires plutôt les sites de « dépêches » pour les articles (et souvent comme (Dontmiss ou les forums) Pipole par une se trouvent exemple) 15 Communauté Taille d'article Champ sémantique bien identifié + + + + + ~ + - - + - + Blog (Madmoizelle) Blog (Perez Hilton) Melty Melty Voici, Gala - + - - + + Voici, Gala + Dépêches (Dontmiss, Pipole) Dépêches (Dontmiss, Pipole) La construction du tableau semble qui pourraient permettre sémantique employé En une et indiquer que les deux critères majeurs distinction de le effet, entre ces développement un sites, sont le champ des fonctionnalitést site qui s'apparente à un blog (Madmoizelle), et le blog de Perez Hilton, il y a une seule différence mineure : la taille des articles. 16 Sur une suivant représentation abscisse/ordonnée, nous obtenons le schéma TL ~ "iirx- ~ck r ir-ic^Licr- KEoTE -;;rc: t i. Nous • repérons 4 La zones du zone distinctes : blog qui conjugue aspect communautaire élevé et champ sémantique bien identifié • La des zone magazines communautaire et • La zone assez • La un zone que nous avec un faible « dépêches » avec un champ sémantique d'aspect communautaire. appellerons « blog hybride », qui se caractérise champ sémantique neutre, mais qui développe par un aspect champ sémantique bien identifié. des sites de neutre et peu papier une forte composante communautaire. 1.3. Une uniformisation culturelle Même si nous établie dans le point nous commun. allons le classer ces point précédent, tous « une « sites web selon la nomenclature ces Certains indices laissent appeler théories de la comme pouvons globalisée? magazines semblent avoir penser qu'ils participent à uniformisation culturelle globalisée convergence culturelle » se un ce que ». Les sont elles révélés fausse, suggère Jean-Michel Warnier? (WARNIER, 2004). Où au contraire, le modèle économique dominant n'a-t-il pas plutôt poussé à cette convergence? 18 1.3.1. Toute l'information 1.3.1.1. Des Le site regroupe une immédiatement articles par même plan thématiques très différentes traitement Cet état de fait est sur un graphique particulièrement visible sur un site comme quantité importante de thématiques qui ne Melty. sont pas apparentes. Sur la page d'accueil sont présentés les ordre chronologique de rédaction et les derniers dossiers les plus actifs. Ainsi, lors de l'affaire Dominique Strauss-Kahn site traitait l'affaire via des articles particulier. Seule pour même pour un annoncer une une icône « choc » apparaît dans ce (par exemple également déclinée « sexy » sujets. Comment dès lors constituer ne l'image nouvelle potentiellement choquante. Cependant, plusieurs thématiques comme même du texte cas sur « Secret Story 5 : ») peuvent porter la même icône! Cette icône est traitement effectué exemple, le qui n'étaient pas placés sur un plan en même des articles traitant de téléréalité Daniel était fiancé! par sur ou avec le même graphisme ou encore « style », sur selon les hiérarchiser des informations? Le les articles est strictement le même. La forme change pas. secret Story 5 c'est l'émission qui tait parler d'elle. En effet, depuis le début de l'aventure, des rumeurs, des révélations font de cette tele réalité une des derniere en date : Daniel était riancè I melty.tr vous en dit pius. ùans Secret Slorv 5. les rumeurs vont Pcn train C'est presque e principe du ie« lut que entré ce * : U't vu a apprendre, et 'ne stratégie, révélations II a y a loueurs Nfr n'est pas en téslé En trti. nous apprenons nu un des candidat rta t fiance avant l'aventure Alors lé<fn ré El artarerr.ment plus regardée. Et voici la. la iroto de sa fia' :ee état beaucoup se ullert DSK : Diallo. un appei lancé au femmes d'Air France L'affaire Nafissatou Diallo-DSK information qui vaut son pesant nous apporte « choc », met en avant joui une d'or, et l'appel lancé par Diallo aux femmes d'Air France nous le prouve encore une L'icône chaque fois. des informations très diverses sous une même appellation. 20 Ce traitement uniformisé de toute l'information est flagrant des sites sur Dontmiss comme entièrement désolidarisé de toute encore plus P/po/e, dont le contenu est ou organisation graphique sur le site. En effet, même si plusieurs catégories apparaissent sur le site (people, look, zic, jeux, sports, vidéo), elles servent uniquement à filtrer l'information. Les articles ainsi sont taggués dans systématiquement dans la rubrique une « catégorie, people », mais apparaissent qui fait office d'accueil. Ainsi, dans l'exemple qui suit, nous observons le même article, tantôt Fichier Édbon Affichage i» & Page précédente Page suivant Marque-pages : Qutils Actualiser : 2 c Images l**1 Gmail 3» Débuter Les plus visités Les Beatles jistorique people, tantôt musique | Accuei À ave Firefox la ] Prise d'otage dans un t une Rockab Q ZIC | O l-'l http.//www.dontmiss.fr/index.php?msg-4CI456&b-1 AdblockPIus B-,. Ë3 FVD Mom compte réunis po ur les JO de 2_ don't MISS | en reservant | LOOK | JEUX uS o£YL*peofle SPORT | VIDEOS | ~ *2*1 M B-751x1 Ficher Édition Affichage Historique Mai que-pages Qutils 2 ■ * Actualise! Page précédente Les ; i Démarier _ : I http:/Awev.dontmiss.fr/index.php?ba'8 Accuei Images 1-1 Gmai 3»' Débuter avec Firefox plus visités dontmiss Arrêter ©. Adbiock Plus À la une Prise d'otage dans un t_ Rockab □ Mom compte toutes les news et act_ MEMOIRE Une même information sous différentes rubrique. La forme entièrement désolidarisée du fond. L'exemple qui est certainement le plus frappant à ce niveau, est probablement celui de Voici. Alors que d'autre sites marquent une véritable limite entre Voici brouille que ce qui est du domaine de la musique largement les pistes à tout est devenu people lecteur ne connaisse pas catégorie » musique sujet. Nous pourrions même dire les artistes dont il est question parier qu'il ne verrait aucun sur le site, il y lien tangible avec la dans lesquels sont placés les articles! Quelques exemples (même si il suffit d'afficher la compte) du cinéma, le site du magazine. Supposons qu'un sur aurait alors fort à « ce ou page pour s'en rendre : • Amy Winehouse fiancée • Rihanna arrête de manger • Beyoncé veut sortir un en secret à Reg Traviss? avant une séance photo livre de cuisine 22 1.3.2. Une notion Même s'il travail d'éthique floue s'agit ne pas à proprement parler de journalisme, le qui est effectué consiste à traiter de l'actualité afin de produire de l'information. Nous pouvons effets nous demander quels pourraient être les cette tendance uniformisation? ce L'absence si elle est de certains alors d'éthique, pour le terrain peuvent il en existe les lecteurs faire penser que non le journalisme (même avertis. Certains faits observés sur les digital natives (notamment chez les plus jeunes d'entre eux), sont désarmés Certains des pour jours très critiquée (VANOOST, 2010)), présente nos dangers comme jeunes lecteurs de Gossy ne par ce manque font que d'expérience. survoler les titres et prennent pour argent comptant tout ce qui y est écrit. Ainsi, lorsque des titres sont volontairement provocateurs, induits Bruel en erreur. se met au Prenons! rap ». un les lecteurs sont spontanément exemple très simple sur ce titre : « Patrick Il s'agissait en réalité d'une publicité qui mettait en scène Patrick Bruel, et en aucun cas d'un éventuel album de rap par l'artiste de variété française. Un nombre important de commentaires ont alors été sur lecteurs publiés se sont le Facebook s'étonnant d'une telle annonce. plus souvent contentés de lire le titre publié Facebook et de le commenter en le considérant comme un Les sur fait établi. Comment, dès lors, ne pas s'inquiéter en observant l'absence de règles éthiques qui régissent les magazines destinés aux jeunes publics? 23 D'autre part, nous constatons également que l'information est disponible via de multiples différence doit maintenant sources se sur Internet. En journalisme, la faire dans le traitement de comme l'évoque Céline Fion (Céline FION, 2009) l'accès aux données. Le débat se « l'information, Internet a facilité déplace donc de la récolte au traitement, à la valeur que peuvent ajouter des individus à ces données. ». Au sein de donc : magazines tels comment ajouter que une Gossy, la question qui devrait valeur à nos se poser est articles? 24 2. Web 2.0 et informations Le Web 2.0 peut Encore faut-il en offre des possibilités pour valoriser l'information publiée. comprendre l'impact sur l'univers médiatique ici étudié. 2.1. L'immédiateté de l'information 2.1.1. L'impact des médias L'absence de décrite par sur règles éthiques bien établies participe à la tension Christian Gautellier (GAUTELLIER, 2010) entre éducation et médias. Il reformule d'ailleurs bien cette les sur l'univers jeunes publics et pose écologie des médias et à Il ou à décrit consommation une une avec une politique de protection de l'environnement ». médiatique des jeunes : • Des temps pluri médias, multi-écrans, multi plates-formes. importants et superposés : 4/6 heures ou plus par jour, caractérisés des pratiques multi plates-formes, les jeunes passant d'un écran à voire utilisant Des Ne doit-on pas réfléchir à précision les principales caractéristiques de la Une vision nécessairement • : « diététique de la consommation des écrans? • par question de l'influence médiatique la question d'une réglementation de médiatique et de l'éducation médiatique les jeunes publics usages plusieurs écrans et services en un autre, même temps. divers : information, création, apprentissages, échanges et communication. 25 • Des contenus multimédias, multiformes de l'écrit, des images fixes ou animées, : de l'audio, sous forme de récits, de fictions, de l'information, du • • « buzz de la publicité, des contenus multiculturels. », Des pratiques ambulatoires et nomades dans l'espace intime et publicisation de l'espace privatif. Un environnement technologique technologique, caractérisé discrétisation des bidirectionnalité • Des frontières par flux de Des usages, non avec introduction de l'espace public stabilisé, perpétuelle en évolution la délinéarisation des grilles de programme, la contenus, l'annotabilité par le biais de tags, la qui transforme le destinataire qui bougent, des production/la consommation • jeux dans des univers virtuels, de « en émetteur. couples bouleversés l'intime/le public » ; la le droit/l'éthique ; les amateurs/les professionnels. ; des pratiques et des contenus très sexués, (les garçons : les jeux, le téléchargement ; les filles : les photos/le mobile, les médias de la relation, etc.). Ces caractéristiques s'accompagnent d'un contexte extrêmement consumériste. L'auteur souligne Lelay (ex PDG de TF1), En effet, une raison la fameuse citation de Patrick parlant de « temps de grande partie de l'univers médiatique financement par sites web en avec la publicité (comme c'est le cas cerveau en ligne disponible ». repose sur le de la majeure partie des présentés jusqu'à maintenant). Nous notons des pratiques publicitaires plus agressives web américains. Ainsi, les analysées par les publicitaires, afin de (directement en les sites photographies présentant des célébrités sont vêtements et accessoires les observées sur proposer plus proches de à l'utilisateur les ce que portent les stars passant le curseur de la souris au dessus de la photo). Une pratique extrême qui figure bien la dangerosité de l'absence de règles à ce sujet. 26 Comme le souligne Christan Gautellier, c'est non seulement l'éducation, mais également la réglementation d'un espace qui doit permettre aux jeunes publics de développer une distanciation critique. Au niveau éducatif, vingt-cinq ans après les premières mesures européennes pour l'éducation aux médias, l'auteur fait un constat un : « II y a décalage entre la prise de conscience de l'enjeu démocratique, culturel et éducatif que représentent l'éducation aux médias, y compris dans certains textes européens, et ambitieuses les moyens avec projet de société. ou également particulièrement, l'éducation par en oeuvre de politiques nécessaires ou cohérents, en termes de ». Les diffuseurs mais la réalité de la mise opérateurs de programmes (au niveau télévisé), les magazines, ne peuvent se il dont décharger sur est ici question plus l'Education Nationale et sur les parents eux-mêmes. Néanmoins, pour changer le comportement éditorial et stratégique des magazines, c'est une analyse centrée sur le 2.1.2. Un jeune public qu'il faut construire. Comprendre les digital natives des l'information les aspects plus marquants (qu'elle soit publicitaire configuration remonte aux ou dans la diffusion de autre), est la viralité. Cette débuts du Web 2.0 où chaque individu (notamment les digital natives) est devenu lui-même éditeur (GILMOUR, 2006, « GAU LIER, bidirectionnalité La recul » C.Gautellier ( et d'« annotabilité génération qui assez 2010) a grandi en parle alors de »). dehors de ces pratiques dispose d'un important, qui s'exprime pour les plus réfractaires à de grandes difficultés d'appropriation des nouvelles technologies (notamment 27 les réseaux sociaux). Marc Prensky évoque chez les digital natives un changement fondamental, non seulement dans les pratiques, mais également dans le fonctionnement intellectuel de ces derniers. Un changement qu'il juge irrémédiable, auquel il faut s'adapter. Parmi les 2001) évoque • changements les plus importants, l'auteur (PRENSKY, : Importance nouvelle connaissance de l'approche aléatoire avec la (par l'hypertextualité et la sérendipité) • Besoin de • Goût et • Préférence du • Importance du jeu et de l'interactivité • Meilleur fonctionnement • Une plaisir immédiat et de récompenses fréquentes aptitude aux tâches multiples graphique et du visuel lorsqu'ils sont connectés capacité d'attention limitée en dehors du jeu, de l'interactivité, de l'image etc. Plusieurs de ces remarques semblent fréquentation de Gossy. Le succès important des le site se confirmer concours accrocheuse. Les sites web goût vers la organisés sur (quasi constamment dans le top 3 des billets les plus lus). Une plus grande consultation des billets si ils contiennent de la vidéo le à pour ne image Melty (et Gossy) exploitent fortement l'hypertextualité. Chaque article contient un ou plusieurs liens d'autres articles. Sur artificielle comme ou une Melty, les liens qui sont faits d'une façon assez prennent plus compte du sens des phrases. 28 Ainsi, « retrouvons dans un article sur la chanteuse Rihanna : nous Rihanna. qui est de nouveau avec Neaus Sealv est l'une des artistes du moment dont la beauté et la que peu de personnes. Ou « On ne sait pas si Rihanna. dont la vidéo très sexv de sa prestation au disponible, » qui semble être une aberration sémantique pour les uns se veut façon utile de naviguer entre les articles sans passer par l'accueil du site. La lecture n'utilise donc une laissent indifférents encore Ce une ne » Carnaval de la Barbade est être plastique autre. C'est plus les mêmes codes d'une génération à pourquoi il devienir très difficile suivant l'âge, de communiquer de l'information en ligne. Il faudrait donc dès à présent prendre en compte fonctionnement ce pour adapter évoqués est très cognitif, l'apprentissage et la transmission de l'information. 2.1.3. L'influence des réseaux sociaux L'affluence sur l'ensemble des sites dépendante des réseaux sociaux. Sur Gossy, visiteurs sur une instantanément l'article sur sur page très grande partie des large centralisée et Facebook sont bien plus nombreux mesure, pour pouvoir commenter le réseau social. D'ailleurs, les commentaires Wordpress lui-même. Commenter une une proviennent de Facebook. Les utilisateurs s'abonnent afin de recevoir l'information présents web un que ceux présents sur le article via Facebook permet, dans d'obtenir un feedback des autres abonnés de la page (nous pourrions rapprocher cela de I' « annotabilité » évoquée par 29 Christian Gautellier). Une fois de plus, le réseautage est très important chez les de digital natives. Des liens peuvent se créer au sein du noyau dur jeunes éditeurs de commentaires (souvent selon les centres d'intérêt). Ainsi, sur Gossy, un noyau dur de fans de l'artiste Justin Bieber commente chaque nouvel article portant Le l'artiste. partage des articles constitue une autre fonctionnalité importante des réseaux sociaux. entière sur des Partager l'information est devenu lecteurs / éditeurs (bipolarité une évoquée activité à part par Christian Gautellier.). Source de contact, le partage permet de créer du lien social avec une étendue plus importante dans les contacts (plus qu'avec une simple messagerie instantanée ou par le biais de mail / message privé). D'ailleurs, le message privé et la messagerie instantanée ont maintenant tendance à derrière est « se switchable une les deux sur Facebook (le même mécanisme technique »). Le partage d'information annotation du contenu confondre qui se sont donc devenues fait d'ailleurs souvent qui permet d'annoncer directement avec ce que nous pensons partagé (critique, amusement, sérieux etc). 2.2. Rendre l'information accrocheuse Au nous aux regard des transformations du public concerné, les médias étudions ont que développé et développent des techniques permettant contenus édités de mieux correspondre aux attentes (exprimées ou non) des plus jeunes publics. Une science inexacte, puisque les éditeurs de contenus ne sont généralement pas des digital natives. 2.2.1. Le Même si titre, la base d'un article réussi nous avons pu constater que les digital natives sont généralement moins enclins à attach er de l' importance reste un élément court et texte , le titre au indispensable qui permet de capter l'attention instantan ément . Le titre est l'é lément majeur d'un article puisqu'il doit satisfaire plusieurs critères à la fois (G REVISSE, 2008) Il doit, d'une • en suscitant Mais il doit • : part, amener le lecteur à lire le reste de l'article sa curiosité. également être référencé de fa çon efficac e. Ainsi, le titre doit à la fois être accrocheur, voire énigmatique, mais à la fois être clair et contenir l'essentiel de l'information développée dans l'article public fidèle, qui qu'il décrit. Le titre doit aussi satisfaire consulte le site et un qui choisit les articles uniquement grâce au titre et à l'image qui l'accompagne. Les articles les les titres les plus lus sont d'ailleurs souvent magazines que nous avons Les titres doivent contenus l'utilisateur de multimédia consulter mentionnés. photo sur les ce niveau des titres entre l'ensemble au également prendre l'article. Ainsi, une mention « de qui possèdent plus accrocheurs (parfois également les plus racoleurs). A sujet, une forte concurrence existe des ceux le » ou « site articles compte le contenu de en vidéo » annonçant la présence permet souvent de convaincre concernés. De nombreux sites (notamment Melty) l'ont bien compris et ont fait de cette stratégie la règle. Cette constatation semble corroborer l'analyse de Mark Prensky sur les digital natives. 31 2.2.2. Contenu et mise Ces remarques cible en forme semblent donc jeune, le texte de l'article n'est auraient donc tout intérêt à article qui ne disposerait laisser nous penser que pour une si important. Les rédactions pas multiplier les contenus multimédia et éviter tout pas de ce type de contenu. Un véritable casse tête, puisque les problèmes de droit à l'image sont nombreux. Gossy a d'ailleurs dû s'abonner à ses une banque d'images afin de publier légalement photos. Avant cet abonnement, le site publiait des photos le plus souvent récupérées via Google Image, jusqu'à ce que photo de paparazzi montrant Leonardo DiCaprio Lively au question en la publication d'une compagnie de Blake début de leur relation n'amène quelques soucis juridiques. La se pose alors : l'article aurait-il eu le même impact sans la publication des photos montrant le couple nouvellement formé? Nous sommes largement en 2.3. Une réécriture 2.3.1. Les droit d'en douter. perpétuelle sources de la veille Si l'écriture web telle nous amène à incite de ce nous fait à qu'elle est pratiquée par les magazines people interroger nous sur la nature du métier de rédacteur, il questionner sur les sources nous des informations et des actualités traitées. 32 S'il est tout à fait artistes et autre La possible de suivre les communiqués officiels des célébrités, cette partie du travail passe par divers outils. première branche, celle qui s'est le plus largement développée dernières années, est celle constituée par lieu Twitter, et Facebook célébrités en ces les réseaux sociaux. En premier second lieu. En effet, la majeure partie des qui intéressent les média people est devenue véritablement dépendante du micro blogging. Preuve en est, les classements qui sont régulièrement établis « Tweetos vogues, la quantité de followers possèdent les que célèbres. Les recordmans sont d'ailleurs les stars les » plus en puisque plafonnent à plus de 10 millions de followers Lady Gaga et Justin Bieber. Au cette activité sur semble devenu scène sur point que nous sommes en droit de nous demander si le réseau social entretient la flamme de cette célébrité? Il indispensable (pour les stars qui fréquentent essentiellement) d'entretenir un lien de proximité avec public sur le public, en un développant le micro blogging du quotidien. C'est particulièrement vrai les stars de la chanson, dont la vie semble impérativement devoir pour être dévoilée sur le réseau social. Ainsi, Twitter peut servir à réaliser via « une Judas les base de fan hardcore de » (comme cela était le premières photographies du clip intermédiaires en par activement faisant le relais sites. Les le diffusée cas avec en le clip exclusivité avant-première, créant ainsi, un avec le grand public, accros présent à l'artiste (ceux qui la suivent réseau), si elles n'étaient rédactions encore peu blogging. Ces nouvelles seraient uniquement les fans les plus sur en sera planétaire). Les magazines people deviennent les le réseau de micro connues promotion qui Lady Gaga. Cette dernière avait alors publié véritable événement sur une participent dans pas relayées une certaine par ces différents mesure à une promotion gratuite des artistes, en relayant l'information contenue sur Twitter.
33,792
hal-04594355-CPF%2029%20-%20Session%20E02%20Rostain%20BAT.txt_2
French-Science-Pile
Open Science
Various open science
null
Dépasser l’invisible, louper le visible : Ethnoarchéologie du bâti amérindien d’Amazonie. Hiatus, lacunes et absences : identifier et interpréter les vides archéologiques, Actes du 29e Congrès préhistorique de France, 31 mai-4 juin 2021, Toulouse, Session Dépasser les plans et révéler l’architecture invisible : de l’identification à la restitution des constructions du Néolithique à l’âge du Fer, Société préhistorique française, pp.47-66, 2023. &#x27E8;hal-04594355&#x27E9;
None
French
Spoken
3,659
6,280
Un bol en calebasse, oublié dans le carbet 4, était décoré d’un échassier jabiru (Jabiru mycteria) ; un motif palikur. Dans le même lieu, l’écorce colorante pour la vannerie ou les calebasses, découverte dans une marmite indiquait un artisanat amérindien. En revanche, les deux vestiges céramiques amérindiens (fig. 8) étaient sans nul doute kali’na, témoignant de la présence de cette ethnie dans le village (Ahlbrinck, 1931 ; Rostain, 1992 ; Collomb, 2003). Les Kali’na appellent d’ailleurs watalakan cette bouteille, par l’association des mots hollandais water (eau) et kan (carafe). Ce type de récipient est particulièrement intéressant, car il est symptomatique de l’adoption de formes céramiques européennes par les Amérindiens durant les premiers siècles de la colonisation. Cette bouteille ventrue à goulot étroit – placé en diagonale sur le côté dans le cas de village Maillard – est clairement influencée par la gargoulette espagnole. Elle a très tôt été adoptée par les Kali’na puisqu’on la retrouve dans les premières collections muséales. Sa forme permettait de garder au frais un liquide. De plus, le dégraissant d’écorce brûlée et broyée kwepi (Licania sp. et Couepia sp.) intégré dans la pâte céramique rendait le récipient très poreux, ce qui rafraîchissait d’autant plus le liquide par évaporation. Cette qualité particulière de ce contenant a séduit les colons, aussi les Kali’na en ont-ils produit, et ils continuent aujourd’hui, en grande quantité. J’ai moi-même souvent utilisé ce type de bouteille pour avoir de l’eau fraîche sur mes fouilles archéologiques. Sur la base des données collectées, on pouvait légitimement proposer une double attribution culturelle au village. Depuis la conquête européenne, la côte amérindienne de Guyane était divisée en deux ensembles ethniques par l’île de Cayenne : les Palikur à l’est et les Kali’na à l’ouest(5). Le village Maillard se trouvait donc plutôt vers le territoire kali’na. Les deux céramiques récoltées étant typiquement kali’na, il était logique d’imaginer que des représentants de cette ethnie y avaient vécu. Cependant, les deux bancs en bois étant de tradition palikur, cela impliquait la présence de ce dernier groupe dans le village. Cette dualité culturelle fut interprétée comme étant la marque de la présence des deux ethnies à village Maillard, sans qu’il fût possible de définir celle qui était dominante. LÀ OÙ LE BÂT BLESSE : LA CONFRONTATION ETHNOLOGIQUE U ne fois les données archéologiques interprétées et la reconstruction culturelle achevée, j’invitais l’ancien capitaine(6) à venir dans le village déserté afin d’évaluer la validité des conclusions obtenues. Il était relativement ouvert dans ses réponses, bien qu’il restât un premier Fig . 12 – Chaque maison était pourvue d’une aire de dépotoir, dans laquelle s’amoncelaient cartons, conserves, bouteilles, piles électriques et une majorité de déchets dé gradable s (cliché S. Rostain). Fig. 12 – Each house was equipped with a dumping area, where cardboard boxes, cans, bottles, batteries and a majority of degradable waste were accumulated (photo S. Rostain). Dépasser l’invisible, louper le visible temps vague sur certains aspects, particulièrement sur les artefacts cérémoniels et les raisons l’abandon du village. Les Palikur ne sont pas originaires de cette région. Le nucléus historique palikur est localisé le long de la rivière Urucawa, affluent du Uaçá du nord d’Amapá, au Brésil. Né à Saint-Georges-de-l’Oyapock, sur la rive gauche française du bas Oyapock, le chef partit très jeune avec ses parents au Brésil, au village d’Ukumene, sur l’Urucawa. Majeur, il revint à Saint-Georges, où il ne resta que deux ans avant de prendre l’avion vers Cayenne pour travailler. Il décida en 1986 de construire son habitation près de Macouria et fut rejoint la même année par ses frères, puis d’autres Palikur arrivèrent. Le témoignage du capitaine permit une révision sévère des interprétations archéologiques. Tout d’abord, le choix de l’emplacement du village n’était absolument pas volontaire et réfléchi, puisque c’est la municipalité de Macouria qui imposa le lieu, rejeté le plus loin possible de la zone urbanisée. La seconde grande erreur de l’interprétation archéologique était la double attribution culturelle du site puisqu’aucun Kali’na n’y avait jamais vécu! L’implantation était entièrement palikur. En dressant la liste des anciens habitants, je lui demandai qui résidait dans les carbets 6 et 7. Il me répondit qu’il n’y avait jamais eu de maison à ces emplacements mais que, en effet, ils avaient commencé à édifier des cabanes qui furent abandonnées avant leur achèvement et ne furent donc jamais habitées. Ce fait était difficilement perceptible par l’étude archéologique, les trous de poteaux de ces structures inachevées ne se différenciant pas de ceux des habitations occupées. Un indice aurait pu être l’absence de dépotoir associé à ces maisons, contrairement aux autres bâtisses. Toutefois, une aire de rejet installée juste devant le carbet 7 induisait en erreur. Il n’y en avait pas près du carbet 6, mais il est courant dans les villages amérindiens de balayer les détritus vers la maison voisine, aussi une aire de rejet accolée à un carbet peut en réalité provenir, au moins en partie, d’un autre. Par ailleurs, le capitaine m’apprit l’existence d’une maison qui m’avait échappé, à 22 m à l’est du village : ce carbet 8 avait été abandonné bien avant les autres, et de ce fait les ruines n’étaient plus visibles sous la végétation lors de mon travail de terrain. Dans la majorité des villages amérindiens d’Amazonie, la maison du chef est toujours la plus grande et est, comme nous l’avons déjà mentionné, souvent localisée devant la place principale. Aussi, avait-il été logique, lors de l’étude spatiale, de lui attribuer le grand carbet 2 sur le côté sud de la place. Lorsque je lui fis part de mon hypothèse, il me répondit : « Oh non! La mienne était la petite un peu éloignée, au nord du village. » Ainsi, le postulat social de localisation centrale de la maison du capitaine fut infirmé. Avant l’abandon de village Maillard, 28 personnes y habitaient en permanence, à savoir 12 adultes et 16 enfants, sur une surface totale de près de 1 900 m2. Toutefois, le nombre de résidents variait parce que des Palikur venaient parfois de Saint-Georges pour travail- 63 ler un temps dans les plantations voisines d’ananas. Les activités professionnelles étaient divisées par genre : tous les hommes travaillaient dans les plantations d’ananas, tandis que les femmes fabriquaient et vendaient des vanneries. Les hommes chassaient dans la forêt proche différents animaux et pêchaient dans la rivière. Tous, hommes et femmes, collectaient à l’occasion des coquillages d’eau douce. Lorsque je le questionnai sur la mise en culture des petits champs surélevés autour de l’implantation, le chef me répondit qu’il ne connaissait pas ces buttes et que les habitants ne les avaient jamais utilisées puisqu’ils avaient leurs champs cultivés par brûlis dans les bois alentour. Des recherches ultérieures montrèrent que les champs surélevés remontaient à l’époque précolombienne et n’avaient rien à voir avec les habitants du village Maillard. Le banc collectif (fig. 7) avait été fabriqué à SaintGeorges-de-l’Oyapock et transporté en pirogue, ce qui avait représenté un voyage maritime de plus de 100 km. Nous n’avons pas pu connaître la cause de son abandon ni de son amputation, car le chef n’en avoua jamais la véritable raison : prétextant l’ignorer, il suggéra qu’un enfant avait probablement coupé la queue pour s’amuser! J’appris plus tard que, en 1990, la communauté s’était scindée en deux groupes, aussi est-il possible que le banc collectif ait été coupé cérémoniellement afin de marquer sa désacralisation au sein du clan. Le capitaine m’affirma qu’ils avaient décidé eux-mêmes de partir, mais, en réalité, j’appris par d’autres sources que les occupants furent chassés par le propriétaire du terrain en mai 1990. Seules trois personnes demeurèrent jusqu’au mois d’août dans le carbet 5. Quoi qu’il en soit, la présence du banc collectif et d’un petit siège individuel donnait une image tronquée de ce qu’était la place de danse lors de l’occupation du village puisque les habitants avaient emporté avec eux quatre autres bancs individuels, dont celui des invités. En fait, peu de vestiges permettaient de connaître l’identité véritable des occupants. En outre, le temps passant, les quelques pièces faites en matériaux périssables, comme les bancs, les calebasses et les vanneries, se seraient dégradées, ne laissant intacts que des artefacts qui auraient pu induire de fausses attributions culturelles. À long terme, se seraient conservés essentiellement le verre et la faïence européenne, ainsi que le tesson et la bouteille de céramique amérindiens. La présence de poteries kali’na dans ce village s’expliquait par l’absence de cet artisanat au sein de la communauté palikur qui y vivait. Les potières indigènes les plus proches étaient des Kali’na, localisées vers l ’ouest, à partir de Kourou. Ainsi, les Palikur devaient-ils faire des échanges avec elles pour obtenir de la vaisselle amérindienne. Durant l’étude de village Maillard, certains aspects étaient difficiles à discerner, et des vestiges échappèrent à l’enregistrement. Plusieurs trous de poteaux furent manqués, notamment ceux du carbet 8 qui avait été abandonné longtemps avant les autres. De même, j’avais raté le trou du mât cérémoniel de la place centrale et celui du drapeau. Cela a été particulièrement dommageable, car ils jouent 64 Stéphen Rostain un rôle crucial dans les fêtes et les danses turé habituellement organisées au moins deux fois par semaine dans les villages palikur (Vidal, 2009). Le mât représentait le passage qu’empruntaient les esprits pour venir participer aux festivités. Par ailleurs, les trous de poteaux des buts du terrain de football m’échappèrent aussi car ils étaient localisés à l’ouest, à l’extérieur de l’implantation, dans un espace qui n’avait pas été reconnu. En fait, j’avais manqué deux aspects essentiels de la vie collective amérindienne : le sport et les cérémonies. N’étant pas suffisamment informé de ces activités, je n’avais pas été attentif à leurs traces discrètes. COMBATTRE LES A PRIORI A u cours de l’année suivant la fouille, des contrôles réguliers furent menés afin d’évaluer la disparition progressive des traces et afin de voir ce que les Amérindiens venaient récupérer dans le village déserté. L’abandon de plusieurs objets encore utilisables, tels des tôles, des jouets, de la vannerie ou des récipients, laissait supposer un départ rapide. Toutefois, l’accès aisé depuis la route nationale et la proximité du nouvel établissement autorisaient des visites fréquentes. L’indifférence aux biens matériels est un trait amérindien saillant, aussi les artefacts sans utilité immédiate sont-ils délaissés pour être éventuellement récupérés plus tard. Par exemple, lors d’une de mes tournées de vérification, le capitaine profita de mon véhicule pour emporter quelques tôles et prit note de la présence de poteaux en bon état pour les prendre plus tard. En outre, un de ses enfants qui nous accompagnait prit le tricycle du carbet 5. Après la saison des pluies, je retournai au village qui avait en grande partie disparu. Les poteaux des carbets avaient été enlevés ou s’étaient écroulés, la végétation camouflait les chemins et les détritus. Seul le centre de la place, encore dégagé, n’était pas encore colonisé par les plantes. Plusieurs visites furent ensuite effectuées durant les vingt ans qui suivirent le premier travail de terrain dans le but d’évaluer la destruction naturelle du site et la disparition des traces et vestiges. En mai 2009, il n’y avait plus aucun indice visible de l’ancienne implantation. Même les arbres fruitiers plantés avaient disparu à cause des feux de savane régulièrement allumés à la saison sèche par les habitants des environs. Il devint clair qu’un petit village de savane côtière de Guyane laissait peu de restes et de signes de son existence. On peut imaginer ce que des fouilles extensives dans un tel lieu révéleraient : des trous de poteaux, le puits, les fosses des toilettes, des rigoles d’écoulement d’eau le long des anciennes maisons, des canaux et des traces de dépotoirs. L’essentiel des artefacts, étant d’origine européenne et faits en matériaux périssables, aurait disparu. On pourrait espérer trouver des récipients en verre et en faïence, ainsi que des tessons de céramique amérindienne. Que retenir de cette expérimentation poppérienne? L’étude ethnoarchéologique du village Maillard a fourni des outils pour évaluer l’utilité de l’approche analytique intuitive. Différents types d’erreurs inférentielles furent révélés par cette méthodologie. Plusieurs interprétations archéologiques furent rejetées, confirmées et/ou corrigées par l’enquête ethnologique. Les principales inexactitudes issues du travail archéologique et révélées par la confrontation des résultats avec les témoignages étaient : • une mauvaise restitution (ou perception) de l’organisation sociale et de l’occupation du village (choix du lieu d’implantation, existence de maisons inachevées, situation de la maison du chef) ; • une attribution culturelle erronée (Palikur/Ka’lina) ; • une mauvaise compréhension des aires d’activités (non-utilisation des champs surélevés) ; • oubli de restes importants (maison isolée, trou du mât cérémoniel, terrain de football). Une série d’erreurs similaires indique que les mauvaises identifications résultaient généralement d’une succession de dérives cognitives depuis la collecte des données jusqu’aux conclusions. Il en ressort que la méthode analytique intuitive généralement utilisée pour interpréter les restes d’un site archéologique doit être employée avec un recul critique. Le village Maillard a été traité comme n’importe quel site archéologique. J’ai fondé mon étude archéologique sur le postulat selon lequel la répartition des traces et des vestiges reflétait les habitudes et l’identité culturelle du groupe qui résidait auparavant dans l’implantation. J’ai ensuite testé la validité de mes interprétations en consultant un ancien occupant des lieux. Le témoignage du chef a démontré que les interprétations basées sur le « sens commun » – occidental qui plus est – pouvaient se révéler totalement erronées. À l’inverse, la donnée ethnologique n’est pas non plus exempte de distorsion et d’erreur, car elle passe par le filtre de la mémoire et de la subjectivité des informateurs. Certaines affirmations du capitaine furent ainsi contredites par l’évidence archéologique. En tout cas, la récurrence des risques d’interprétations inexactes et les limites de la méthodologie hypothético-déductive décelées par cette expérimentation ethnoarchéologique justifient la nécessité de développer des outils logiques théoriques mieux structurés pour déchiffrer les données archéologiques. L’étude du site de Maillard peut servir d’exemple de la complexité potentielle que doivent affronter les archéologues qui s’attellent à la fouille d’un site précolombien. Cette expérience aura été utile pour aborder de manière plus réfléchie mes fouilles archéologiques amazoniennes ultérieures. Elle a montré le besoin de prudence dans l’interprétation des données. D’autres études ethnoarchéologiques ont également été conduites par la suite, notamment sur un habitat ancien d’Amazonie équatorienne qui montrait des similitudes troublantes avec les cases actuelles Aents Chicham (groupe anciennement dénommé Jivaro), notamment dans la répartition spatiale des anomalies anthropiques et la distribution spatiale des activités (Rostain, 2011 ; Rostain et Saulieu, 2015). Dépasser l’invisible, louper le visible Le projet de recherche mené autour de village Maillard s’est déroulé sur plus de vingt ans afin d’observer l’évolution du paysage et la disparition des traces du passage humain. Toutefois, cette étude n’est probablement pas tout à fait finie : il resterait un travail de terrain utile à réaliser pour compléter cette analyse ethnoarchéologique d’un village amérindien d’Amazonie. L’idée est ainsi de mettre en place une nouvelle campagne de fouille par décapage de grande surface avec une pelleteuse afin de retrouver les trous de poteaux et autres structures creusées. Les traces reconnues seront à examiner avec la même objectivité et la même innocence que la première fois (fig. 13). On obtiendrait alors un regard novateur et sans nul doute éclairant sur la formation des sites archéologiques d’Amazonie. « Et la maison ne connaît plus les drames d’univers » (Bachelard 1994 [1957], p. 43). Remerciements : Le projet Village Maillard se déroula principalement en 1990 dans le cadre du programme « L’occupation amérindienne ancienne du littoral de Guyane », dirigé par S. Rostain. Il fut financé par l’Institut géographique national (IGN) et l’Institut de recherche pour le développement (IRD, alors appelé Orstom). Le travail de terrain fut réalisé avec l’aide de deux assistants et la collaboration de P. Frenay, topographe de l’IGN, de B. Barthès, pédologue de l’IRD, et de M. Fleury, ethnobotaniste de l’IRD. Enfin, l’historien B. Roux, de l’université de Rouen, et l’anthropologue G. Collomb, du CNRS, ont aimablement fourni des documents historiques utilisés ici. NOTES (1) Appelées localement « carbets ». (2) Les objets am érindiens ont été prélevés puis déposés au musée des Cultures guyanais es , à Cayenne. (3) Du contact européen au xviie siècle jusqu’aux années 1980, les Kali’na étaient dénommés « Galibi » dans la littérature. (4) Le cachiri est une bière douce faite avec du manioc amer, consommée par une grande partie des Amérindiens d’Amazonie. (5) En réalité, aucun groupe palikur n’habitait plus l’espace entre l’île de Cayenne et Kourou dès avant la conquête européenne, tandis que les Kali’na n’y sont plus depuis le xviiie siècle. (6) En Guyane, à la suite des relations historiques des populations autochtones avec les militaires et l’administration, on surnomme « capitaines » les chefs de village. Stéphen Rostain CNRS, UMR 8096 Archéologie des Amériques, Paris, France . Fig. 13 – Plan des trous de poteau et du puits de village Maillard. Une future fouille par décapage devrait pouvoir mettre au ces traces, le reste ayant vraisemblablement disparu, mais l’interprétation des structures pourrait être sensiblement différente de celle faite il y a plus trente ans par l’auteur (dessin S. Rostain). Fig. 13 – Map of the post holes and of the well of the village of Maillard. A future excavation by stripping should be able to uncover these features, the rest having evidently disappeared, but the interpretation of the structures could be significantly different from that made during the project more than thirty years ago by the author (drawing S. Rostain). RÉFÉRENCES BIBLIOGRAPHIQUES Ahlbrinck W. (1931) – Encyclopaedie der Karaïben: behelzend taal, zeden en gewoonten dezer Indianen, Amsterdam, Koninklijke Akademie van Wetenschappen, 555 p. Aime-Martin M. de (1877) – Lettres édifiantes et curieuses concernant l’Asie, l’Afrique et l’Amérique avec quelques relations nouvelles des missions et des notes géographiques et historiques, tome 2, Paris, Paul Daffis libraire-éditeur. Audouze F., Perles C (1980) – L’ethnoarchéologie, Les Nouvelles de l’archéologie, 4, p. 7-10. Bachelard G. (1994) – La poétique de l’espace [1957], Paris, Presses universitaires de France (Quadrige, 24), 214 p. Barrere P. (1743) – Nouvelle relation de la France Equinoxiale, Paris, Piget-Damonneville, Durand. Biet A. (1664) – Voyage dans la France Equinoxiale en l’isle de Cayenne entrepris par les français en l’année 1652, Paris, Clouzier éd. Bonnichsen R. (1973) – Millie’s Camp: An Experiment in Archaeology, World Archaeology, 4, 3, p. 277-291. Caiuby Novaes S. (1983) – Habitações Indígenas, São Paulo, Livraria Nobel, Editora da Universidade de São Paulo, 196 p. Collomb G. (2003) – Réflexions sur un « style ethnique » : la céramique kali’na du littoral oriental des Guyanes, Journal de la Société des américanistes, 89, 1, Paris, p. 129-160. Collomb G., Tiouka . (2000) – Na’na kali’na, Une histoire des Amérindiens Kali’na en Guyane, Petit Bourg, Ibis Rouge. Deboer W. R., Lathrap D. W. (1979) – The Making and Breaking of Shipibo-Conibo Ceramics, in C. Kramer (dir.), Ethnoarchaeology: Implications of Ethnography for Archaeology, New York, Columbia University Press, p. 102-138. Grenand P. (1981) – Agriculture sur brûlis et changements culturels : le cas des Indiens Wayãpi et Palikur de Guyane, Journal d’agriculture traditionnelle et de botanique appliquée, 28, 1, p. 23-31. Harcourt R. (1928) – A Relation of a Voyage to Guiana by Robert Harcourt 1613. With Purchas’s Transcript of a Report made at Harcourt’s instance on the Marrawini District [1613], London, The Hakluyt Society, 1991 p. Hurault J.-M. (1989) – Français et Indiens en Guyane (16041972), Cayenne, Guyane Presse Diffusion. Lange F. W., Rydberg C. R. (1972) – Abandonment and Post-Abandonment Behavior at the Rural Central American House-Site, American Antiquity, 37, 3, p. 419-432. Meggers B. J. (1971) – Amazonia, Man and Culture in a Counterfeit Paradise, Chicago Aldine Atherton Inc., 182 p. Mestre M., Rostain S. (2015) – Villages précolombiens de plage, in S. Rostain (dir.), Archéologie de l’Amazonie. Les premiers habitants de la Guyane côtière, Oxford, BAR Publishing (BAR International Series, 2758 ; Paris Monographs in American Archaeology, 44), p. 75-89. Nimuendaju C. (2008) – Les Indiens Palikur et leurs voisins [1926], Paris, éditions du CTHS, Orléans, université d’Orléans (La Librairie des cultures), 183 p. Riviere P. (1984) – Individual and Society in Guiana: A Comparative Study of Amerindian Social Organization, Cambridge, New York, Cambridge University Press, 127 p. Rostain S. (1992) – La céramique amérindienne de Guyane française, Bulletin de la Société suisse des nistes, 55-56, p. 93-127. Rostain S. (1994) – L’occupation amérindienne ancienne du littoral de Guyane, Paris, éditions de l’Orstom (Travaux et documents micro-fichés, 129). Rostain S. (2011) – Ethnoarchaeologogy of the Amazonian House: Pre-Columbian and Jivaro Continuity in Ecuador, in C. L. Hofman et A. van Duijvenbode (dir.), Communities in contact. Essays in Archaeology, Ethnohistory and Ethnography of the Amerindian Circum-Caribbean, Leiden, Sidestone Press, p. 455-475. Rostain S. (2016) – Amazonie. Un jardin sauvage ou une forêt domestiquée. Essai d’écologie historique, Arles, Actes Sud, Errance. Rostain S. (2017) – Knock! Knock! Who’s There? An Ethnoarchaeological Approach in French Guiana, Latin American Antiquity, 28, 1, p. 6-27. Rostain S., G. de Saulieu (2015) – La première maison d’Amazonie. Le formatif dans la province de Pastaza, Équateur, Journal de la Société des américanistes, 101, 1-2, p. 51-82. Roth W. (1924) – An Introductory Study of the Arts, Crafts and Customs of the Guiana Indian, 38th Annual Report of the U.S. bureau of American Ethnology (1916-1917), Washington, Smithsonian Institution. Siegel P. E. (1991) – Ethnoarchaeological Study in a Waiwai Village in the Tropical Forest of Southern Guyana, in Proceedings of the 11th International Congress of Caribbean Archaeology, Puerto Rico, Fundación Arqueológica, Antropológica e Histórica de Puerto Rico, Universidad de Puerto Rico, United States Forest Service, p. 400-417. Siegel P. E., Roe P. G. (1986) – Shipibo Archaeo-Ethnography: Site Formation Processes and Archaeological Interpretation, World Archaeology, 18, 1, p. 96-115. Vidal L. B. (2009) – Povos indígenas do Baixo Oiapoque. O encontro das águas, o encruzo dos saberes e a arte de viver, Rio de Janeiro, Museo do Índio, Iepé. Zeidler J. A. (1983) – La etnoarqueología de una vivienda Achuar y sus implicaciones arqueológicas, Miscelánea Antrop Ecuatoriana, 3, Quito, Boletín de los Museos del Banco Central del Ecuador, p. 156-194.
34,243
2002PA066015_6
French-Science-Pile
Open Science
Various open science
2,002
Croissance cristalline et caractérisation laser des monocristaux d'oxoborates non linéaires M4R(BO3)3O (M=Sr, Ca et R=Y, La, Gd) dopés par les ions Yb3+ et/ou Er3+
None
French
Spoken
7,260
12,620
La matrice LaCOB Le temps de vie radiatif du LaCOB est de 1,7 ms. C’est le temps de vie radiatif le plus court pour l’ion ytterbium dans une matrice de type RCOB (R=Gd, Y ou La). 3. Temps de vie expérimental L’étude de la dynamique de la fluorescence donne accès à une grandeur appelée temps de vie expérimental τexp. Le temps de vie expérimental est comparable au temps de vie radiatif à condition que la concentration en ions luminescents soit peu élevée et que la part de désexcitation non radiative soit négligeable. La deuxième condition est remplie d’office pour l’ion ytterbium car le niveau d’énergie situé directement en dessous du niveau émetteur est suffisamment loin de celui-là pour que la désexcitation multiphonons soit minoritaire. L’émission radiative suit une loi de décroissance exponentielle : N( t)= N(0)exp(− t ) Eq. 5 τ exp où N(t) est le nombre d’ion Yb3+ se désexcitant radiativement au temps t Le temps de vie expérimental est donc directement la pente de décroissance de l’intensité de fluorescence en fonction du temps en échelle logarithmique. Les courbes de déclins sont obtenues en 124 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB excitant l’ion Yb3+ dans le niveau 2F5/2 par pompage optique à 900 nm. La détection du signal se fait intensité de fluoresence (u.a.) à 1040 nm. A titre d’exemple un déclin de fluorescence est montré sur la figure III-17. YCOB : Yb 0,05% longueur d'onde d'excitation 900 nm longueur d'onde de détection 1040 nm τexp=1,38 ms 8 6 4 2 0 0,000 0,002 0,004 0,006 0,008 0,010 temps (s) Figure III17 : déclin de fluorescence du niveau 2F5/2 de l’ion Yb3+ dans le YCOB dopé à 0,05% échantillons frittés échantillons monocristallins échantillons frittés, fondus puis trempés temps de vie radiatif expérimental (ms) 3,5 3,0 2,5 temps de vie radiatif théorique 2,0 1,5 1,0 0,5 0,0 0 10 20 30 40 50 60 70 80 concentration en ytterbium (%) Figure III18: temps de vie expérimentaux du niveau 2F5/2 de l'ytterbium dans l'YCOB en fonction de la concentration Sur la sont portés les temps de vie expérimentaux mesurés sur des échantillons de concentration et de nature variable. Lorsque les mesures sont effectuées sur des monocristaux, les temps de vie sont nettement plus longs que s’il s’agit de poudre polycristalline. Par ailleurs au sein de ces deux familles, les temps de vie dépendent également de la concentration en ytterbium insérés dans la matrice. Plusieurs phénomènes entrent en compétition ici et expliquent ces variations : - Le transfert d’énergie non radiatif entre les ions ytterbium. Un ion ytterbium porté dans son état excité, peut transférer directement son énergie à un ion ytterbium voisin qui passe à l’état excité. Ceci a pour effet d’allonger artificiellement le temps de vie puisque, tant que l’énergie est transférée entre les ions, elle n’est pas ré-émise sous forme de lumière. Ce 125 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices Y COB et LaCOB phénomène est d’autant plus marqué que la concentration en ytterbium est importante dans la matrice. Yb3+ - Yb3+ Il y a transfert d’énergie radiatif sous forme d’émission réabsorption. Un ion ytterbium se désexcite radiativement, mais sur le trajet la lumière émise est réabsorbée par un autre ion ytterbium, si bien que le temps de vie est, comme précédemment, surestimé. Ce phénomène augmente lorsque la concentration en ytterbium augmente et lorsque l’épaisseur d’échantillon traversée par le signal augmente. Yb3+ - Yb3+ les défauts cristallins induisent une extinction de la fluorescence. Ces défauts forment des pièges qui absorbent l’énergie des ions ytterbium et la transforment en énergie thermique. Ce phénomène est plus rapide que la désexcitation radiative, donc il abaisse le temps de vie mesuré. L’extinction est d’autant plus forte que la concentration de défauts est grande. - Il y a agrégation des ions ytterbium. Les niveaux d’énergie des ions agrégés sont différents des niveaux d’énergie des ions isolés. Les possibilités de désexcitation non radiatives sont donc augmentées et le temps de vie expérimental diminue. Le phénomène d’agrégation augmente avec la concentration en ions ytterbium. L’extinction de la fluorescence induite par les défauts est la cause de la baisse du temps de vie expérimental quand on passe d’un échantillon monocristallin à un échantillon fritté. De même, le temps de 126 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB vie baisse quand on passe d’un échantillon seulement fritté à un échantillon fritté puis fondu et trempé, car ce traitement thermique supplémentaire augmente la quantité de défauts dans la matrice. De façon générale pour les trois types d’échantillons, les courbes de temps de vie expérimental en fonction de concentration en ions Yb3+ sont croissantes puis décroissantes quand la concentration en ytterbium augmente. Aux fortes concentrations le phénomène majoritaire est l’agrégation des ions ytterbium. Il provoque la baisse du temps de vie expérimental. Ceci explique la partie décroissante de la courbe. Aux faibles concentrations, l’agrégation est minoritaire. Ce sont les transferts entre ions ytterbium (radiatifs et non radiatifs) qui prédominent et expliquent l’allure croissante des courbes. Le changement d’allure des courbes a lieu à des concentrations différentes suivant que les échantillons sont monocristallins ou pulvérulents. Dans le cas des monocristaux l’effet du transfert radiatif entre ytterbium est important puisque l’épaisseur d’échantillon traversée par le signal est élevée. Ceci a pour effet d’élever le temps de vie expérimental. Au contraire dans le cas des poudres, le nombre d’agrégats est sans doute plus élevé que dans les monocristaux à concentration en ytterbium égale. Ces deux phénomènes expliquent pourquoi les courbes de temps de vie expérimental atteignent leur maximum pour des concentrations en ytterbium plus faibles dans le cas de poudres par rapport aux monocristaux. Il faut noter que les deux premiers phénomènes (transfert d’énergie non radiatif et émission-réabsorption) ne changent en rien le fonctionnement laser du matériau. Il en résulte que les temps de vie mesurés expérimentalement par dynamique de fluorescence ne sont pas fiables pour évaluer les potentialités laser de nos cristaux, ils sont artificiellement surestimés. Nous choisissons en conséquence d’utiliser la valeur du temps de vie radiatif théorique, et non pas expérimental, dans toute la suite de ce travail. 127 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB E. Emission stimulée Les performances laser sont intimement liées à l’intensité de l’émission stimulée produite par le milieu actif. Comme dans le cas de l’absorption, la notion de section efficace permet de comparer les matériaux entre eux, indépendamment de leur taille ou de la concentration en ions luminescents. Il existe deux méthodes permettant de déterminer les sections efficaces d’émission stimulée pour un matériau donné. Méthode de réciprocité Cette méthode dérive de la relation qui existe entre absorption et émission stimulée par l’intermédiaire des coefficients d’Einstein. La section efficace d’émission stimulée se déduit alors directement du spectre d’absorption et du diagramme des niveaux d’énergie par la relation [13-15]: ⎡ EZL − 1 ⎤ Z f λ⎥ σ e(λ)=σ a(λ)⋅ ⋅exp ⎢− Ze kT ⎢ ⎥ ⎣ ⎦ Eq. 6 où k est la constante de Boltzmann (0,6955 cm-1K-1), T est la température (en K), EZL est l’énergie qui sépare le premier sous-niveau Stark de l’état fondamental et le premier sous-niveau Stark de l’état excité (en cm-1), Zf et Ze désignent respectivement les fonctions de partition de l’état fondamental et de l’état excité et sont calculées comme suit : Zf =∑ g j exp( j −E j ) kT Eq. 7 Ze=∑ gi exp(− Ei −EZL ) kT i Eq. 8 où gi et gj représentent les dégénérescences respectives de chaque sous-niveau Stark i et j, en l’occurrence gi=gj=2, et Ei et Ej correspondent à l’énergie des sous-niveaux i et j (en cm-1). Un spectre de la section efficace d’ émission stimulée peut donc être obtenu pour chacune des polarisations X, Y et Z. Remarquons que si l’absorption est grande suivant une polarisation, l’émission suivant cette polarisation le sera également d’après l’équation 6. Cette méthode est fiable aux courtes longueurs d’onde. Aux plus grandes longueurs d’onde, l’absorption devient faible puisque les transitions mises alors en jeu sont issues des niveaux Stark supérieurs à l’état fondamental et peu peuplés thermiquement. Le rapport signal sur bruit devient 128 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB faible et les va leurs de section efficac e d’émission stimulées calculées par réciprocité deviennent incertaines. La présence de niveaux vibroniques n’est pas prise en compte dans le calcul des fonctions de partition. L’allure générale du spectre obtenu est donc fiable, mais à un coefficient multiplicatif près. Nous faisons l’hypothèse que ce coefficient est proche de l’unité, car les interférences entre les niveaux vibroniques et les sous-niveaux Stark issus du terme 2F7/2 et ceux issus du terme 2F5/2 semblent d’importance égale. L’incertitude sur le diagramme des niveaux d’énergie conduit également à une incertitude sur les fonctions de partitions. Suivant les cas de figures proposés au paragraphe III.B.2, le rapport des fonctions de partition Zf/Ze varie de 1,02 à 1,08. La valeur choisie pour effectuer les calculs est celle du diagramme (d) de la Figure III10, c’est à dire 1,02. Ces deux dernières remarques incitent à rester prudent quant à la valeur absolue des sections efficaces d’émission stimulée calculées. Méthode de Füchtbauer-Landenburg Cette méthode relie la section efficace d’émission stimulée au spectre de fluorescence, c’est-à-dire à l’intensité de l’émission spontanée [16]. La relation liant les deux grandeurs s’écrit : q (λ)= σ em 3λ5 8πCnq2τ rad ⋅ I (λ) ∫λ(I X (λ)+IY (λ)+ I Z (λ))dλ Eq. 9 où τrad est le temps de vie radiatif et nq est l’indice dans la direction de polarisation q, et Iq est l’intensité de fluorescence dans la direction de polarisation q. Contrairement à la méthode de réciprocité, cette relation permet l’obtention d’un spectre fiable même à longueur d’onde élevée. Cependant la méthode de Füchtbauer-Landenburg est sensible aux phénomènes de réabsorption. Une partie de la fluorescence est réabsorbée avant même de sortir de l’échantillon et l’intensité collectée à la sortie est donc inférieure à l’intensité réellement émise par l’échantillon. Ce phénomène a lieu, alors même que le faisceau de lumière excitatrice est focalisé sur une partie superficielle de l’échantillon et que le signal traverse une épaisseur faible de matière. Ce phénomène est important dans les zones où l’absorption est grande. En particulier la raie fondamentale est nettement sous-estimée avec cette méthode. Globalement, l’intégrale située au dénominateur de l’équation 9 est sous-estimée, ce qui conduit à une surestimation générale de la section efficace d’émission stimulée sur tout le spectre. Là encore, le spectre est connu à un facteur multiplicatif près. 129 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Comparaison des spectres de YCOB obtenus avec les deux méthodes Nous faisons l’hypothèse que la méthode la plus fiable pour évaluer la valeur absolue de la section efficace d’émission stimulée est la méthode de réciprocité dans le domaine des faibles longueurs d’onde. Sur la Figure III19 sont représentés les spectres obtenus dans les trois polarisations avec les deux méthodes. Réciprocité Füchtbauer-Landenburg a)polarisation Z -21 4,0x10 -21 section efficace d'émission (cm2) 3,0x10 -21 2,0x10 -21 1,0x10 0,0 b)polarisation Y Réciprocité Füchtbauer-Landenburg c)polarisation X Réciprocité Füchtbauer-Landenburg -21 4,0x10 -21 3,0x10 -21 2,0x10 -21 1,0x10 0,0 -21 4,0x10 -21 3,0x10 -21 2,0x10 -21 1,0x10 0,0 950 1000 1050 longueur d'onde (n m) Figure III19: section efficace d'émission stimulée du YCOB : Yb obtenue par réciprocité et par la méthode de Füchtbauer-Landenburg pour les polarisations X, Y et Z L’allure générale des spectres est la même quelle que soit la méthode choisie. Dans la direction de polarisation Z, celle pour laquelle l’émission est la plus intense, les deux spectres se confondent (voir Figure III19-a). La méthode de Füchtbauer-Landenburg conduit à un spectre plus intense suivant la polarisation X (voir Figure III19-c), et plus faible suivant la polarisation Y (voir Figure III19-b). Or, s’il y a un facteur correctif à appliquer pour obtenir la section efficace d’émission réelle, celui-ci est le même quelle que soit la polarisation. Nous n’avons pas d’explication pour ce phénomène, sinon que lorsque les intensités de fluorescence et d’absorption sont petites, comme dans le cas de la polarisation Y, l’erreur commise est plus grande. C’est pourquoi nous utilisons par la suite les spectres de section efficace d’émission stimulée obtenus sans facteur correctif et qui permettent une superposition totale des spectres suivant la polarisation Z pour les deux méthodes (voir Figure III20). 130 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB -21 section efficace d'émission (cm2) 5,0x10 -21 4,0x10 polarisation Z -21 3,0x10 polarisation X -21 2,0x10 polarisation Y -21 1,0x10 0,0 900 920 940 960 980 1000 1020 1040 1060 1080 1100 1120 1140 1160 longueur d'onde (nm) Figure III20 : section efficace d'émission stimulée du YCOB : Yb suivant les polarisations a) X b) Y et c) Z. Section efficace d’émission de l’ytterbium dans le LaCOB Ne connaissant pas précisément le diagramme des niveaux d’énergie du LaCOB, les sections efficaces d’émission ont été calculées par la méthode de Füchtbauer-Landenburg. Le spectre de fluorescence qui a servi pour ce calcul a été enregistré en lumière non polarisée (voir Figure III21). -20 section efficace d'émission (cm2) 1,0x10 -21 8,0x10 -21 6,0x10 -21 4,0x10 -21 2,0x10 0,0 900 920 940 960 980 1000 1020 1040 1060 1080 1100 1120 1140 longueur d'onde (nm) Figure III21 :section efficace d’émission stimulée de LaCOB : Yb Les sections efficaces d’émission obtenues ne sont donc qu’indicatives. Elles sont susceptibles de varier, autour de la valeur trouvée, suivant la polarisation. Les maxima locaux du spectre des sections efficaces atteignent 2,9.10-21 cm2 et 0,6.10-21 cm2 aux longueurs d’onde 1027 et 1076 nm respectivement. Ces valeurs sont intermédiaires entre celles obtenues pour le YCOB parallèlement à la polarisation X et à la polarisation Z. 131 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB F. Paramètres laser Les mesures spectroscopiques effectuées sur nos cristaux permettent d’évaluer, par des calculs très simples les potentialités laser du matériau YCOB dopé à l’ytterbium, avant même de chercher à obtenir l’oscillation laser. Pour bien comprendre les paramètres d’évaluation, il est nécessaire de rappeler le principe de fonctionnement des lasers à ytterbium. 1. Principe de fonctionnement d’un laser et paramètres pertinents a -Fonctionnement d’un laser quasi trois niveau x Un LASER (Light Amplification by Stimulated Emission of Radiation) est un milieu amplificateur, dont les éléments actifs sont portés dans un état excité par une source de pompage (optique ou électrique) et qui est placé dans une cavité résonante (Figure III22). pompage milieu amplificateur émission laser (émission stimulée) émission spontanée Cavité résonante Figure III22 : schéma de principe de fonctionnement d'un laser Dans le cas présent le milieu amplificateur est un cristal, les éléments optiquement actifs sont les ions ytterbium. Le pompage est de type optique et longitudinal. La cavité est constituée de deux miroirs. Le miroir d’entrée est transparent à la longueur d’onde de pompe afin de laisser passer le faisceau de pompe, et réfléchissant à la longueur d’onde laser. Le miroir de sortie est partiellement réfléchissant à la longueur d’onde laser afin d’extraire une partie de l’émission laser du dispositif, et généralement réfléchissant à la longueur d’onde de pompe, afin de recycler une partie du faisceau de pompe qui n’avait pas été absorbée lors du premier passage dans le cristal. 132 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Le principe d’obtention de l’oscillation laser est le suivant : Les ions optiquement actifs sont portés dans un état excité par la source de pompage. Ils peuvent alors se désexciter spontanément (émission spontanée) ou bien interagir avec un photon d’énergie hν et se désexciter en émettant un photon en tous points semblable au premier (même direction, même phase, même énergie, même polarisation). Il s’agit dans le dernier cas d’émission stimulée, émission que l’on souhaite amplifier quand on réalise un laser. Les photons issus de l’émission stimulée vont induire de nouvelles émissions stimulées et ainsi de suite, c’est l’avalanche photonique. Pour ce faire, il faut que la population d’ions luminescents dans le niveau excité soit plus élevée que celle du niveau terminal de l’émission stimulée. C’est-à-dire qu’il faut réaliser l’inversion de population. Les schémas de fonctionnement des lasers peuvent se diviser en deux types : Système à quatre niveaux Dans ce type de laser, les ions luminescents du niveau fondamental (1) sont portés par une excitation optique appropriée dans le niveau (4) (voir Figure III23). Ils cèdent une partie de leur énergie sous forme de vibration au réseau et gagnent ainsi rapidement le niveau (3), très proche, c’est la relaxation multiphonons. Ce phénomène est très rapide par rapport à une émission radiative. Puis l’ion se désexcite radiativement vers le niveau (2), c’est la transition laser attendue. Enfin, la relaxation multiphonons permet aux ions actifs de regagner rapidement le niveau fondamental. Dans un tel système, le niveau (2) est peu peuplé, car il est suffisamment éloigné du niveau fondamental pour n’être pas peuplé thermiquement, et cependant il est suffisamment proche pour être dépeuplé rapidement par relaxation multiphonons. C’est pourquoi l’inversion de population est facilement réalisée entre les niveaux (3) et (2). L’oscillation laser est facile à obtenir, c’est le cas de l’ion Nd3+. (4) (3) transition non radiative émission pompage laser optique niveau fondamental (1) (2) niveau terminal de l’émission laser transition non radiative Figure III23 : schéma de fonctionnement d'un laser 4 niveaux 133 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Système à trois niveaux Dans ce cas, le niveau terminal de l’émission laser est aussi le niveau fondamental (voir Figure III24). Comme celui-ci est fortement peuplé à l’équilibre thermodynamique, il faut apporter beaucoup d’énergie par pompage optique pour réaliser l’inversion de population entre les niveaux (2) et (1), car plus de la moitié des ions actifs devra être portée à l’état excité (le niveau (3) étant seulement peu peuplé). C’est pourquoi le temps de vie du niveau (2) joue un rôle important. Plus il est élevé, et plus l’inversion de population sera facile à obtenir. (3) transition non radiative (2) pompage émission laser optique niveau fondamental (1) = niveau terminal de l’émission laser Figure III24 : schéma de fonctionnement d'un laser 3 niveaux Cas intermédiaire : l’ion ytterbium On qualifie un laser de quasi-trois-niveaux lorsque le niveau fondamental et le niveau terminal de l’émission laser ne sont pas confondus mais sont les sous-niveaux Stark du même terme fondamental. Suivant l’éclatement de ce terme avec le champ cristallin, le niveau terminal de l’émission laser est plus ou moins haut, donc plus ou moins thermiquement peuplé. S’il est haut, l’inversion de population est alors aisée. S’il est bas, l’inversion de population est alors difficile. (4) (3) transition non radiative pompage émission laser optique (2) niveau terminal de l’émission laser niveau fondamental (1) transition non radiative Figure III25 : schéma de fonctionnement d'un laser quasi-3ou quasi-4-niveaux 134 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB b -Fraction minimale d’ions à porter dans l’état excité Les considérations précédentes conduisent à introduire la notion de fraction minimale d’ions à porter à l’état excité afin de réaliser l’inversion de population [15]. Pour ce faire, considérons un diagramme simplifié des niveaux d’énergie d’un laser de type quasi-3quasi-4-niveaux (voir Figure III26). niveau excité Ne Ej, gj émission pompage laser EZL optique Ei, gi niveau fondamental Nf Figure III26 : diagramme d'énergie simplifié d'un laser quasi-3ou quasi-4-niveaux Ne et Nf sont respectivement les populations totales du niveau excité et du niveau fondamental. Les populations des niveaux i et j entre lesquels se produit l’émission stimulée s’écrivent d’après les équations de Boltzmann : ni = N f gi ⋅ n j = Ne g j ⋅ exp(− Ei ) kT Eq. 10 Zf exp(− E j − EZL) ) kT Ze Eq. 11 où Zf et Ze sont respectivement les fonctions de partition des niveaux fondamental et excité définies par les équations 5 et 6, et gi et gj sont les dégénérescences des sous-niveaux Stark i et j (gi=gj=2 dans le cas de l’ytterbium soumis à champ cristallin suffisamment important, comme c’est le cas dans le YCOB). Pour effectuer l’inversion de population entre les niveaux Ej et Ei, la fraction de population à porter dans l’état excité s’écrit : β min =( Ne Ne + N f ) Eq. 12 ni = nj 135 Chapitre III – Propri étés spectroscopiques de l’ytterbium dans les ma trices YCOB et LaCOB soit encore : β min = 1 EZL −(E j − Ei) 1+ Z f ⋅exp( ) Ze kT Eq. 13 ce facteur dépend donc essentiellement du terme EZL-(Ej-Ei). Or, généralement le niveau Ej dans le cas de l’ion ytterbium est le plus bas niveau Stark de l’état excité, si bien que la seule variable est l’énergie du niveau terminal de l’émission laser Ei la fraction minimale de population s’écrit : β min = 1 f Z 1+ ⋅exp( Ei ) Ze kT Eq. 14 Plus Ei est faible, et plus le niveau est susceptible d’être peuplé thermiquement, le paramètre βmin tend dans ce cas vers la valeur 0,5 et le fonctionnement du laser se rapproche d’un 3-niveaux. Au contraire quand le niveau Ei est élevé le paramètre βmin devient petit, le laser se rapproche d’un 4niveaux. Avec un niveau Ei de l’ordre de 1 000 cm-1, correspondant à l’éclatement total approché du terme 2F7/2, la fraction minimale d’ions à porter à l’état excité est de l’ordre de 0,007. Cela montre l’importance de la valeur de l’énergie Ei du niveau terminal de l’émission laser. c -Section efficace de gain Dans un laser quasi-3ou quasi-4-niveaux, l’émission laser est susceptible d’être réabsorbée, ce qui constitue une perte. En tenant compte des pertes par réabsorption, mais en négligeant celles de la cavité, il est possible de définir le gain comme suit : G(λ)= Neσ em(λ)− N f σ abs(λ) Eq. 15 Pour obtenir l’oscillation laser, il faut qu’il y ait amplification, donc le gain doit être positif. En considérant la fraction de population dans l’état excité β telle que : β= Ne Ne + N f Eq. 16 la section efficace de gain est définie par l’expression : σ g (λ)= βσ em(λ)−(1− β)σ abs(λ) Eq. 17 136 Chapitre III – Propri étés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB La fraction minimale d’ions à porter à l’état excité pour obtenir l’oscillation laser, est telle que σg soit positive, c’est à dire à la longueur d’onde laser λl : β min = σ abs(λl ) σ abs(λl )+σ em(λl ) Eq. 18 Grâce à la relation de réciprocité (équation 5), on retrouve l’expression de βmin donnée au paragraphe précédent (équation 13). Les courbes de section efficace de gain permettent d’évaluer quelles sont les longueurs d’onde ou les domaines de longueur d’onde les plus probables pour obtenir une oscillation laser. En réalité pour obtenir l’oscillation laser il faut que le gain soit au moins égal à la somme des pertes de la cavité : pertes passives et pertes dues à la transmission du coupleur de sortie. La valeur de βmin n’est donc qu’indicative, mais elle a le mérite de permettre de comparer les matériaux entre eux d -Intensité de saturation de pompage La facilité avec laquelle on dépeuple le niveau fondamental au profit du niveau excité est donné par l’intensité de saturation de la pompe [15]: Ip= hc λ pσ abs (λ p)τ rad Eq. 19 où h est la constante de Planck (6,626.10-34 J.s), c est la célérité de la lumière (2,997.1010 cm.s-1), λp est la longueur d’onde de pompe, σabs(λp) est la section efficace d’absorption à la longueur d’onde de pompe et τrad est le temps de vie radiatif du niveau excité (en s). Cette expression traduit un phénomène qui peut se comprendre très simplement : plus l’absorption et le temps de vie du niveau excité sont grands, et plus les ions seront nombreux à être dans l’état excité. A faible puissance de pompe, lorsque la population du niveau fondamental est grande, la majorité des photons de pompe va trouver des ions susceptibles de les absorber. Quand la puissance de pompe augmente, il arrive un moment où le niveau fondamental n’est plus assez peuplé. La probabilité pour les photons d’être absorbés diminue, le coefficient d’absorption du cristal diminue : il y a saturation de l’absorption. La grandeur Ip rend compte de cette facilité à saturer l’absorption. En général, l’effet laser intervient avant qu’il y ait saturation de l’absorption, et celui-ci dépeuple rapidement le niveau excité, si bien que la saturation d’absorption intervient pour des puissances de pompe nettement supérieures à la valeur de Ip. Il est néanmoins intéressant de remarquer que, sans effet 137 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB laser, le rapport du nombre d’ ions portés à l’ état excité sur le nombre d’ions à l’état fondamental Ne / Nf est donné directement par le rapport entre intensité absorbée et intensité de saturation. En effet, l’équation de population de l’état excité s’écrit en négligeant la réabsorption : dN e Ne = − dt τ rad + N f σ abs ( λ p )φ Eq. 20 où φ est le flux de photons du faisceau de pompage à la longueur d’onde λp. Il est relié à l’intensité absorbée par la relation : I= hc λp ⋅φ Eq. 21 A l’équilibre thermodynamique Ne/Nf à l’état excité est donnée par : N e Iλ p σ abs (λ p )τ rad I = = Nf hc I sat Eq. 22 e -Intensité minimale d’ tion de l’effet laser L’oscillation laser a lieu lorsque la fraction d’ions portés à l’état excité atteint la valeur βmin. Sous réserve que le laser soit de type quasi-3-niveaux, le nombre d’ions portés à l’état excité, au seuil laser, reste petit devant le nombre d’ions total Nf+Ne~Nf, d’où βmin~Ne/Nf. L’expression de l’intensité minimale absorbée pour obtenir l’effet laser se déduit directement de l’équation 20, en remplaçant Ne/Nf par βmin : I min = β min I sat Eq. 23 La valeur de Imin dépend donc à la fois des longueurs d’onde de pompe et d’émission, alors que l’intensité de saturation ne dépendait que de la longueur d’onde de pompe. f -Efficacité quantique La puissance laser extraite dépend non seulement du nombre de photons qui vont être ainsi produits, mais également de l’énergie de ces photons. Pour un même flux photonique, le rendement du dispositif sera meilleur si l’énergie des photons laser émis est seulement de peu inférieure à l’énergie des photons incidents. Le terme d’efficacité quantique rend compte de cela. Il évalue le rendement énergétique pour un ion participant à l’émission laser : 138 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB hc ηQ = λl = λ p hc λl λp Eq. 24 La différence d’énergie entre photons incidents et émergents est dissipée sous forme de chaleur. Cette dissipation a ici lieu lorsque les ions se désexcitent entre niveaux Stark d’un même multiplet. L’intérêt de maximiser l’efficacité quantique est double puisque cela permet de limiter les échauffements locaux et d’améliorer le rendement énergétique du dispositif laser. 2. Paramètres laser du YCOB : Yb et comparaison avec les matrices usuelles Section efficace de gain Les sections efficaces de gain pour les trois polarisations X, Y et Z sont données pour différentes valeurs de β sur la Figure III-27. L’oscillation laser, à β donné, ne peut avoir lieu que si le gain est positif. Les valeurs de section efficace de gain positives délimitent le domaine de longueurs d’onde dans lequel l’émission laser est possible. L’amplification est alors d’autant plus grande que la valeur du gain est élevée. Pour une fraction d’ions portés à l’état excité de 0,25, le gain est positif sur une large plage de longueurs d’onde quelle que soit la polarisation (à partir de 999 nm, 1002 nm et 998 nm pour les polarisations X, Y et Z respectivement). Par contre la valeur du gain varie notablement d’une polarisation à l’autre. En posant toujours β égal à 0,25, le gain demeure inférieur à 0,5.10-21 cm2 suivant la polarisation Y. Il est supérieur à cette valeur sur une plage plus étendue suivant la polarisation Z (de 1016 nm à 1045 nm) que suivant la polarisation X (1026 à 1036 nm). La valeur maximale du gain est alors 0,83.10-21 cm2 contre 0,60.10-21cm2 pour les polarisations Z et X respectivement. Le gain est plus élevé suivant la polarisation Z. C’est donc la polarisation la plus favorable à l’émission laser. De plus, les courbes de section efficace de gain sont relativement plates. L’émission laser devrait donc être réalisable sur une plage étendue de longueurs d’onde. Cette caractéristique est également favorable pour générer ou amplifier des impulsions en régime femtoseconde. 139 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB -21 -21 2,0x10 0,0 -21 -2,0x10 -21 -4,0x10 850 900 950 -21 E//X β=1 β=0.75 β=0.5 β=0.25 β=0 4,0x10 section efficace de gain (cm2) section efficace de gain (cm2) 4,0x10 1000 1050 1100 β=1 β=0.75 β=0.5 β=0.25 β=0 -21 2,0x10 0,0 -21 -2,0x10 -21 -4,0x10 1150 850 900 950 1000 1050 1100 1150 longueur d'onde (nm) longueur d'onde (nm) -21 section efficace de gain (cm2) E//Y 4,0x10 β=1 β=0.75 β=0.5 β=0.25 β=0 -21 2,0x10 E//Z 0,0 -21 -2,0x10 -21 -4,0x10 850 900 950 1000 1050 1100 1150 longueur d'onde (nm) Figure III27 : section efficaces de gain suivant les trois polarisation X, Y et Z Autres paramètres spectroscopiques Les paramètres laser du YCOB : Yb sont reportés dans le Tableau III4. Les valeurs de βmin et de ηQ ne figurent qu’une fois dans le tableau pour plus de clarté. Il ressort que si la longueur d’onde de pompe est 900 nm, la polarisation d’absorption la plus favorable est Z, mais l’on peut aussi utiliser la polarisation X. Si la source d’excitation émet à 976 nm, la polarisation d’absorption la plus favorable est Y. Les polarisation X et Z conduisent à des absorptions comparables mais faibles. L’émission est nettement plus intense suivant la polarisation Z. C’est donc la polarisation laser qui sera la plus fréquemment observée. L’effet laser devrait être plus facile à obtenir vers 1084 nm, car le seuil y est bas. Mais pour des puissances de pompe plus élevées, un effet laser doit être obtenu à des longueurs ’onde plus faibles (1032 nm par exemple), ce qui a le double avantage d’élever l’efficacité quantique et d’augmenter la section efficace d’émission. Il apparaît que la longueur d’onde de pompe la plus intéressante est 976 nm (meilleure absorption, meilleure efficacité quantique). Malheureusement la source de pompage dont nous disposons au 140 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB laboratoire, un laser saphir dopé titane, fournit une puissance beaucoup plus faible à 976 nm qu’à 900 nm (500 mW contre 800 mW). Nous avons donc choisi d’effectuer nos tests laser à 900 nm, et nous avons, en conséquence, taillé nos échantillons de façon à ce que la polarisation incidente soit parallèle à l’axe optique Z ou X. Tableau III4 : principaux paramètres laser du YCOB : Yb Polarisation λ pompe (nm) X Y Δλ (nm) 16,9 900 Z 15,3 13,6 σabs(λpompe) τ rad (×10 -20 cm2) (ms) 0,31 I sat (kW.cm2) 32,15 0,15 66,42 0,42 24,17 2,2 X Y Z 2,4 976 2,4 2,1 0,93 1,26 0,94 9,90 7,36 9,84 141 λ laser σem(λ laser) β min I min (kW.cm- ηQ (nm) (×10 -20 cm2) 1021 0,16 0,10 3,19 88,1 1032 0,29 0,06 1,99 87,2 1050 0,14 0,03 0,91 85,7 1084 0,11 0,01 0,22 83,0 1021 0,28 6,59 1032 0,18 4,11 1050 0,08 1,89 1084 0,08 0,45 1021 0,45 2,40 1032 0,42 1,50 1050 0,2 0,69 1084 0,10 0,16 1021 0,16 0,98 95,6 1032 0,29 0,61 94,6 1050 0,14 0,28 93,0 1084 0,11 0,07 90,0 1021 0,28 0,73 1032 0,18 0,46 1050 0,08 0,21 1084 0,08 0,05 1021 0,45 0,98 1032 0,42 0,61 1050 0,20 0,28 1084 0,10 0,07 2) (%) Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Comparaison du YCOB avec les autres matrices cristallines Comparons maintenant les paramètres laser les plus pertinents du YCOB, avec ceux d’autres matériaux laser à l’ytterbium. Nous avons choisi de faire figurer dans le Tableau III5 des matériaux peu connus, comme le SrYBO (Sr3Y(BO3)3) et le CYB (Ca3Y2(BO3)4), car ce sont des borates comme le YCOB. Les apatites CFAP et SFAP ont sans conteste les meilleures caractéristiques : un seuil très bas malgré un temps de vie radiatif plus court, une section efficace d’émission très élevée. Les paramètres du GdCOB sont très proches de ceux du YCOB. Un seuil un peu plus bas, mais une section efficace d’émission un peu plus faible, et bien entendu, des efficacités quantiques équivalentes. GdCOB et YCOB ont des seuils plus bas que le YAG, le YSO, le SrYBO et le CYB. Or les valeurs des sections efficaces d’absorption ne sont pas particulièrement grandes. En fait, les faibles intensités de seuil du GdCOB et du YCOB sont liées aux valeurs élevées du temps de vie radiatif, qui permet un bon stockage de l’énergie de pompe. La largeur de la raie fondamentale des composés YCOB et GdCOB est moins grande que dans le YSO, le SrYBO et le CYB, ce qui les rend moins adaptés que ces derniers au pompage par diode. Tableau III5 : paramètres laser de différents cristaux laser dopés à l’ytterbium Cr istal Formule chimique Polarisationλ pompe absorption (nm) Z YCOB 900 Δλ (nm) 13,6 σabs(λpompe) ( ×10-20 cm2) 0,42 Ca4Y(BO3 )3 O Z 976 900 2,4 9,6 Z 976 2,6 0,87 isotrope 942 18 0,8 CFAP[11] Ca5 (PO4 )3F 905 2,4 10 SFAP[11] Sr5(PO4)3F 900 3,7 8,6 ⊥c σ X YSO[8] CYB[8] Sr3 Y(BO3 )3 Ca3 Y2 (BO3)4 Non pol β min I min ηQ (kW.cm-2) 1021 0,45 (Z) (%) 0,10 2,40 88,1 1032 1050 0,42 (Z) 0,06 1,50 87,2 0,20 (Z) 0,03 0,69 85,7 1084 0,10 (Z) 0,01 0,16 83,0 1021 0,45 (Z) 0,10 0,73 95,6 1032 0,42 (Z) 0,06 0,46 94,6 1050 0,20 (Z) 0,03 0,21 93,0 1084 0,10 (Z) 0,01 0,05 90,0 1032 0,36 0,06 1,22 87,3 1052 0,14 0,025 0,52 85,7 83,3 (×10-20 cm2) 1082 0,07 0,007 0,15 1032 0,36 0,06 0,52 94,6 1052 0,14 0,025 0,22 92,8 1082 0,07 0,007 0,06 90,2 27,9 1031 2,03 0,055 1,53 91,4 1,2 2,9 1043 5,9 0,046 0,132 86,8 1,26 2,1 7,3 0,043 0,09 1,3 1,01 19 1,1 1,17 17 1034 0,097 1,64 88,2 4,6 1,92 0,8 13,1 1088 0,004 0,06 89,9 1041,5 0,003 0,04 93,9 1082 0,01 0,08 90,4 1041,5 0,03 1,82 86,6 978 3,5 2,3 13,2 0,7 π σem(λlaser) (nm) 978 5 Z SrYBO[8] 8,7 λlaser 912 Y SiO 2 20,4 2,7 Y3Al5 O12 BaCaBO3F 7,36 0,4 YAG[11] Ca2Al2SiO7 24,17 1,26 GdCOB[5] Ca4 Gd(BO3 )3O [8] Isat (kW.cm-2) 2,2 Y BCBF[17] τrad (ms) 902 975 976 3,2 5,8 7 0,54 0,94 1,62 60,9 1,2 0,7 142 17,9 18,8 1082 0,01 0,34 83,4 1030 0,05 0,83 94,7 1076 0,007 0,12 90,6 1029 0,05 0,87 94,8 1070 0,02 0,40 91,2 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB 3. Conclusion Les potentialités laser du YCOB sont très proches de celles du GdCOB. Ces matériaux ont une absorption faible et doivent avoir un seuil laser bas. Ils devraient être plus performants sous pompage à 976 nm qu’à 900 nm. Malgré une raie fondamentale un peu étroite, le YCOB semble donc être adapté au pompage par diode. Par ailleurs, les zones spectrales dans lesquelles le gain est important sont étendues, ce qui fait du YCOB : Yb un matériau prometteur pour la génération d’impulsions ultra-brèves. L’évaluation du LaCOB :Yb est incomplète, car notre échantillon est très concentré et possède une orientation particulière. Il devrait absorber efficacement l’énergie de la pompe et ses performances laser devraient s’approcher de celles du GdCOB. 143 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB G. Propriétés laser de l’Ytterbium Après avoir caractérisé leur comportement optique, nous avons tenté de mettre en évidence l’effet laser à partir des cristaux. 1. Tests laser pour l’émission à 1μm Dans ce paragraphe sont décrits les tests d’émission laser des cristaux de YCOB : Yb et de LaCOB : Yb, aux alentours de 1μm, soumis à une excitation à 900 nm. Les cristaux utilisés sont orientés perpendiculairement aux axes X, Y ou Z. Chaque cristal a subi un traitement antireflet sur les deux faces parallèles de façon à minimiser les pertes par réflexion. a -Dispositif utilisé Les cristaux sont disposés dans un montage optique représenté schématiquement sur la Figure III28. Atténuateur Miroir de sortie concave 50 mm Miroir infrarouge Miroir d’entrée plan Détecteur au Germanium Cristal Laser Saphir :Ti Lentille f=100 mm Lame demi-onde Filtre passe haut (λc=980 nm) Miroir infrarouge Figure III28: schéma du montage utilisé pour les tests laser La source de pompage est le laser saphir : titane accordable utilisé pour l’enregistrement des spectres de fluorescence. A 900 nm, la puissance maximale est de 800 mW environ. La polarisation du faisceau peut être modifiée à loisir grâce à une lame demi-onde spécifiquement conçue pour la longueur d’onde 900 nm. Un jeu de deux miroirs infrarouge permet d’aligner le faisceau incident avec le banc optique. Le faisceau est focalisé sur la face d’entrée du cristal au moyen d’une lentille convergente de focale 100 mm. Le cristal est placé entre deux miroirs qui forment la cavité laser, et repose sur un dispositif de refroidissement par effet Peltier. Cependant, seules deux faces du cristal sont ainsi refroidies. La chaleur due à l’irradiation du cristal n’est donc pas très efficacement évacuée 144 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices Y COB et LaCOB par ce système. Au sortir de la cavité un filtre arrête la pompe résiduelle, pour que seule la lumière laser produite dans la cavité soit collectée par le détecteur. Les caractéristiques du miroir d’entrée, des miroirs de sortie et du filtre sont données dans le Tableau III6 : Tableau III6: transmission des miroirs et du filtre Transmission à Transmission à 900 nm (%) 1060 nm (%) ∞ 93,6 0,01 Casix Rmax 50 mm 0,8 0,1 Casix 2% 50 mm 54,5 2,0 Casix 6% 50 mm 51,3 5,4 Casix 10% 50 mm 66,6 10,0 DJ980 ∞ 1,8 81,9 Nom Miroir d’ Casix HR@1060 nm HT@800 nm Rayon de courbure Miroirs de sortie Filtre Ces valeurs ont été obtenues par mesure directe sur le banc optique décrit ci-dessus. Elles diffèrent quelque peu des valeurs théoriques données par les spectres d’absorption, en raison des rayons de courbure et des altérations de surface qui modifient localement la transmission. Le miroir d’entrée laisse passer la majorité du faisceau de pompe à 900 nm, et réfléchit quasiment la totalité de l’émission laser à 1060 nm. Les miroirs de sortie recyclent le faisceau de pompe de façon variable. Les calculs de puissance absorbée par le cristal et présentés ici en tiennent compte. Les transmissions à la longueur d’onde de pompe pour ces miroirs sont proches de celles qui étaient annoncées dans les spécifications, sauf en ce qui concerne le miroir 6% qui transmet en réalité 5,4%. Le détecteur est une cellule à base de germanium, munie d’un atténuateur de façon à supporter des puissances incidentes supérieures à 50 mW. Une caméra CCD permet de visualiser le faisceau au cours de l’alignement des optiques de la cavité par autocollimation. Elle permet aussi faire l’image de la tache laser sur le miroir de sortie. Pour enregistrer les spectres de l’émission laser, le détecteur est remplacé par un miroir peu réfléchissant, qui envoie une toute petite fraction du faisceau laser sur le dispositif d’enregistrement des spectres de fluorescence de façon à ne pas saturer le monochromateur. 145 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Une fluorescence verte apparaît toujours lorsque le cristal, placé dans la cavité, absorbe la lumière laser excitatrice. Elle provient d’une addition de photons entre ions ytterbium voisins [18]. Cette fluorescence est un outil précieux : plus elle est intense et mieux le cristal absorbe. Ceci permet de régler finement la longueur d’onde de pompe et la position de la lentille de focalisation par rapport à la cavité. Ensuite, dès que l’effet laser est obtenu, l’intensité de la fluorescence verte baisse notablement. b -Absorption réelle des cristaux Les cristaux sont des lames à faces parallèles, normales à un des axes X, Y ou Z, les deux autres axes étant repérés dans le plan de la lame. L’épaisseur optimale devrait être choisie de façon à minimiser l’intensité de seuil. Or, cette dernière dépend des caractéristiques spectroscopiques, mais aussi de facteurs géométriques et du choix du type de la cavité. Il faut donc tenir compte : - des pertes par transmission du miroir de sortie, qui varient dans notre cas de 0,1 à 10 % - des pertes proportionnelles à la longueur du cristal, comme l’absorption d’impuretés ou la diffusion dans le cristal - des pertes extrinsèques, comme la réflexion sur les faces du cristal - de la distribution de l’intensité de pompe dans le milieu amplificateur - de la distribution des modes de la cavité. Il faudrait évaluer les pertes intrinsèques et extrinsèques, s’assurer a posteriori que les modes de pompe et les modes de la cavité sont bien de type TEM00 et tailler des lames d’épaisseur différente pour chaque miroir de sortie. Dans la pratique, il est convenu qu’une fraction de pompe absorbée raisonnable est obtenue lorsque l’épaisseur est égale à l’inverse du coefficient d’absorption, soit l=1/σ(λp)N, où N est le nombre d’ion luminescent par unité de volume (en cm-3) [19]. Si l’épaisseur devient trop importante la largeur du faisceau laser augmente dans le cristal ainsi que l’absorption à la longueur d’onde de pompe. Ces deux facteurs concourent à élever la puissance de seuil. Au passage, cette remarque souligne l’intérêt de travailler avec des cristaux fortement concentrés en ions Yb3+. Les épai et les absorptions des cristaux utilisés lors de nos tests sont données dans le Tableau III7. Dans tous les cas, la polarisation de la lumière est parallèle à l’axe optique Z. 146 Chapitre III – Propriétés spectroscopiques de l’ytterbium dans les matrices YCOB et LaCOB Tableau III7: épaisseurs et absorption des cristaux de YCOB dopés testés en cavité laser Numéro de l’échantillon Orientation de la lame Epaisseur Concentration 3+ en ions Yb Absorption à Section Section 900 nm efficace efficace d’absorption réelle (cm) (×10 (%) (%) cm2) -20 l.σ(λp).N d’absorption théorique (×1020 cm2) (opt=1) 1 ⊥Y 0,31 15 56,9 0,406 0,460 0,84 2 ⊥X 0,40 15 71,2 0,464 0,460 1,24 3 ⊥Y 0,29 34 86,2 0,451 0,460 1,98 4 ⊥Y 0,10 34 47,6 0,434 0,460 0,64 Les sections efficaces d’absorption expérimentales sont proches des sections efficaces calculées d’après les spectres d’absorption. Les écarts observés peuvent être liés à la propreté des faces, à des défauts cristallins ou des impuretés variant d’un échantillon à l’autre ou bien encore à la présence d’agrégats d’ions ytterbium qui abaissent la section efficace d’absorption. c -Résultats des tests laser du YCOB : Yb Les courbes de la puissance laser émise en fonction de la puissance absorbée à 900 nm sont données sur la Figure III-29 pour chaque cristal avec les différents miroirs de sortie. La puissance absorbée est calculée à partir de la mesure du taux de transmission du cristal à la longueur d’onde de pompe en l’absence d’effet laser. Dans toute la gamme de puissances incidentes utilisées ici, le taux de transmission du cristal reste constant. La puissance absorbée calculée est donc valable pour un taux d’inversion de population proche de celui de l’effet .
22,012
2017SACLS279_19
French-Science-Pile
Open Science
Various open science
2,017
La dispense canonique dans le droit de l'église catholique latine. : Concept, tradition et canonicité.
None
French
Spoken
6,959
11,862
909 « Excommunicatus pro iniectione manuum in cle ricum , vel incendi arius post publication em a solo Papa absolv itur » (Un excom muni é pour avoir exercé une mainmise sur un clerc , ou un incendiaire est libér é par le pape seulement, après publication ). Voir l’extrait de la lettre d’Alexandre III à l’évêque du Mans que nous avons cité plus haut. Voir X.5.39.19 : «...Unde Fraternitati tuae taliter respondemus, quod non solum ii, qui in clericos temerarias manus iniiciunt, sed etiam incendiarii, ex quo sunt per ecclesiae sententiam publicati, pro absolutionis beneficio ad apostolicam sedem sunt mittendi, et non nisi per Romanum Pontificem absolvendi... » [272] De même, Innocent III, dans sa décrétale Quum illorum absolutio, énonce une série d’applications rigoureuses de la loi et quelques adoucissements : « Comme l’absolution de ceux qui en raison de leur violente mainmise sur les clercs encourent la dégradation d’excommunication, excepté dans certains cas, stipulés par notre prédécesseur, est seulement réservée au siège apostolique : certains, sans tenir compte du jugement ecclésiastique, touchés par l’excommunication, ne redoutent pas de recevoir les ordres ecclésiastiques » 910 . Le système des réserves pontificales ne doit pas, en soi, être considéré comme un abus du pouvoir de la part du Saint-Siège. C’est donc exagéré, à notre avis, de croire qu’il s’agit là d’un système qui serait à la base du « centralisme romain ». Pour Innocent III (11981216), la prérogative particulière du Saint-Siège et sa plénitude de pouvoir en matière de réserve consistent à faire observer la rigueur de la justice et de l’équité 911. Dans une de ses lettres recueillies dans la collection de Grégoire IX, il affirme agir non par l’autorité d’un homme mais par autorité divine pour présider à la destinée de l’Église de Dieu912. Il agit donc en gardien des canons lorsqu’il se réserve la confirmation de l’élection ou le transfert des évêques. Il soutient agir sous l’inspiration divine lorsqu’il se réserve certaines causes en matière de dispense canonique. Bref, il agit pour établir l’ordre canonique lorsqu’il se réserve les causes qui concernent l’Église dans son ensemble. En vertu de cette même autorité, il peut dispenser dans des cas particuliers sans porter atteinte à la norme générale.913 Innocent III le souligne par exemple dans une lettre adressée à l’évêque de Faenza, où il explique le lien 910 X.5.39.32 : « Quum illorum absolutio, qui pro violenta manuum iniectione in clericos labem excommunicationis incurrunt, praeterquam in quibusdam casibus, a praedecessore nostro exceptis, sedi duntaxat apostolicae reservetur: nonnulli, ecclesiasticam sententiam negligentes, in excommunicatione positi ecclesiasticos ordines accipere non formidant. » Voir aussi cette autre décrétale d’Innocent III à l’ evêque de Lyon: « Servus excommunicatus pro iniectione manuum in clericum, tenetur pro absolutione ire ad sedem aspotolicam » (Un esclave excommunié pour avoir exercé une mainmise sur un clerc est tenu d’aller pour son absolution au siège apostolique) Cf. X.5.39.37. 911 Cf. X.2.27.19 : «...In causis, quae summi Pontificis iudicio deciduntur, et ordo iuris et vigor aequitatis est subtiliter observandus,... » (...Dans les affaires qui sont décidées par un jugement du Pontife suprême, et doivent être observés [ sobrement] aussi bien l ’ ordre juridique que la rigueur de l’équité,...) 912 Cf. X.1.7.3: «... Non enim homo, sed Deus separat, quos Romanus Pontifex, qui non puri ho minis , sed veri De i vicem geri t in terris, ecclesiarum necessitate vel utilitate pensa ta , non humana, sed divina potius auctoritate dissolvit....» (...En effet non pas un homme, mais c’est Dieu qui sépare, ceux que le Pontife romain a dissous non par autorité humaine, mais bien plus divine, lui qui ne relève pas d’un simple homme, mais du vrai Dieu, gère sur cette terre la destinée...) 913 Cf. Innocent III, Registorum, Lib. XVI, Epist. CLIV, PL., t . CC XVI, col . 943D -944A: « Ascitis aliis in partem sollicitudinis , summus pontifex assumptus est ad plenitudine potestati s ; qui cum moderator sit canonum, iuri non facit injuriam, si dispensat. Præsertim cum dispensa tio sic iuris vincula la xet in aliquo, quod in aliis non dissolvit; et sic beneficium gratiæ specialis inducat, quod vigorem constitution is non perimit generalis ...» (Le Pontife suprême a reçu les pleins pouvoirs, les autres ayant adopté une partie de la solitude; lui qui , comme il est le régulateur des canons, ne fait pas injure au droit , s ’il dispense. Surtout lorsqu’une dispense [saine] prolonge ainsi les liens du droit chez certains, parce que chez les autres il n’abolit pas ces liens ; et implique a insi le bénéfice d’une grâce spéciale, parce qu’il n’efface pas la vigueur [l’observance stricte] de la constitution générale...) Traduction libre. [273] spirituel qui unit un évêque et son Église. Le Pontife romain dissout ce lien indissoluble par l’autorité divine et non humaine : « Bien que nous soyons le successeur du prince des apôtres, nous ne sommes pas le vicaire de Pierre, d’un [d’aucun] apôtre ou d’un [d’aucun] homme, mais le vicaire de Jésus Christ. Ainsi, ce que Dieu, et non l’homme, a réuni spirituellement, le vicaire de l’homme ne peut le délier, mais seulement le vicaire de Dieu ; le vicaire de Dieu sépare un évêque de son Église, comme nous avons quelquefois retiré des évêques de leurs sièges par abdication, déposition et transfert. Ces trois pouvoirs sont justement réservés, comme nous l’avions montré, au Pontife romain, qui a retenu pour lui la plénitude de pouvoir, bien qu’il ait appelé d’autres évêques pour partager [avec eux] sa sollicitude »914. Dans ce qui vient d’être dit, nous nous posons finalement les questions suivantes : quel pouvoir les évêques ont-ils dans le domaine des dispenses canoniques durant la période de l’affirmation de l’hégémonie pontificale? Quels pouvoirs avaient-ils durant la période de l’affirmation croissante de la puissance pontificale et de ses réserves? Y avait-il des cas pour lesquels les évêques dispensaient librement sans une main-mise du Siège apostolique? Dans l’affirmative, une autre inquiétude surgit : quel est le fondement de ce pouvoir épiscopal dans le contexte d’un système de gouvernement de l’Église universelle et diocésaine du Moyen Âge dominé par la figure d’un Pontife suprême aux pouvoirs absolus? C’est ce qu’il nous faut voir dans la section suivante. 914 Voir dans Othmar HAGENADER, Anton HAIDACHER, Dei register Innocenz III. 1. Pontifikatsjahr, 1198/99, Graz-Wien-Köln, 1964, vol. 2, n°326. [274] Section deuxième Pouvoirs des évêques diocésains et controverses en matière de dispenses canoniques. Article 1. Pouvoirs des évêques diocésains dans le contexte de la Plenitudo Potestatis. Le contexte laisse deviner la difficulté de concevoir ou de définir le pouvoir des évêques entre le XIe et le XVe siècles, période durant laquelle les différents Pontifes romains tendent à affirmer leur plenitudo potestatis, tant en matière civile qu’en matière ecclésiastique. Nous situons cette période de près de cinq siècles, entre 1073, le pontificat de Grégoire VII et 1409, date de la célébration du concile de Pise. La plupart des commentateurs consultés estiment que le concile de Pise marque le début, de manière formelle, des contestations du pouvoir pontifical, mettant en avant le conciliarisme915. Mais, il sied de noter que l’affirmation de l’autorité suprême du Pontife romain ne s’est pas limitée à cette période de 1073 à 1409. Malgré les contestations observées au cours des siècles, la Constitution dogmatique promulguée par le premier concile du Vatican sous le pontificat de Pie IX (1846-1878), Pastor Æternus (juillet 1870), au-delà du concile de Pise, avait poursuivi, au XIXe siècle, l’œuvre commencée au XIe siècle. Nous ne pensons pas apporter de réponses aux questions que nous nous sommes récemment posées. L’unique article de ce chapitre ne peut suffire à en proposer une analyse plus ou moins complète. Un exposé détaillé sur le pouvoir des évêques durant cette longue période de l’histoire de l’Église peut faire l’objet d’une étude plus documentée en histoire du droit canonique. Pour ce qui nous concerne, nous nous limitons à en donner quelques indications qui permettront de comprendre le contexte difficile de l’exercice de ce pouvoir et principalement dans le domaine des dispenses canoniques. 915 Voir infra, p. 292 [275] §. 1. Pouvoirs des évêques diocésains : hypothèses contextuelles et canoniques. Nous avions noté, au premier chapitre, que jusqu’à la première moitié du Moyen Âge, les évêques, dans leurs Églises locales, seuls, en synode ou réunis au concile provincial, pouvaient exercer un pouvoir de dispense plus large pour les fidèles de leurs juridictions respectives916. La plupart de ces pouvoirs ont été progressivement abandonnés au profit de la juridiction plénière du Pontife romain. Il nous semble difficile de déterminer les raisons de ce qu’il convient d’appeler ici le transfert des compétences. Nous avons tenté précédemment de rappeler les raisons données par Louis THOMASSIN dans son Ancienne et nouvelle discipline de l’Église pour expliquer ce phénomène917. La doctrine relative au pouvoir de dispense des évêques doit être envisagée ici comme devant déterminer les matières qui ne sont pas de la compétence exclusive du Pontife romain. Nous serons poussés d’emblée à dire ceci : ce qui n’est pas expressément réservé au Pontife romain tombe sous la juridiction des évêques. Ce constat, qui nous paraît logique, ne l’est pas pour autant. Nous observons plusieurs incertitudes au cours de ces siècles pour fonder la doctrine du pouvoir de dispense des évêques. Nous nous demandons s’il est possible de rendre compte de ce qu’ont pensé de ces rapports de compétence les canonistes et théologiens durant les cinq siècles considérés ici. Les conditions se prêtaient-elles à entreprendre une telle étude? Il est intéressant, à ce sujet, de lire le Tractatus de privilegiis et dispensationibus de BONAGUIDA DE ARETINIS918. Cet auteur écrit : 916 Dans son article ‘‘L’évêque d’après la législation de quelques conciles mérovingiens’’, Brigitte B ASDEVANTGAUDEMET traite en quelques pages de l’évêque d’après la législation de quelques conciles mérovingiens, entre 511 et la fin du VIIe siècle. À travers ces pages, nous pouvons comprendre la liberté dont jouissaient les évêques dans le gouvernement de leur diocèse. Cf. Brigitte B ASDEVANT-GAUDEMET, « L’évêque d’après la législation de quelques conciles mérovingiens », dans Brigitte BASDEVANT-GAUDEMET, Église et autorités. Études d’histoire de droit canonique médiéval, op. cit., p. 88-100. Nous pouvons par exemple lire ce qui suit : « Dans les premières communautés chrétiennes, l’episcope faisait déjà figure de chef de la communauté religieuse locale. Ce caractère domine encore davantage dans la législation canonique mérovingienne. La compétence épiscopale est étendue : ratione materiæ, elle englobe tous les domaines touchant la vie religieuse ; ratione personæ, tous les chrétiens du diocèse sont sous l’autorité de l’évêque. Hérétiques, juifs ou païens n’y échappent pas dans la mesure où l’évêque veille à ce qu’ils demeurent exclus de la société chrétienne. Les canons décrivent un pouvoir épiscopal quasi absolu. À la lecture des actes des conciles, il semble presque que les ressortissants de chaque diocèse n’aient pas à connaître d’autre autorité que celle de l’évêque autour de qui s’organise tout l’ordre ecclésiastique. Ce pouvoir s’exerce sur l’ensemble du clergé séculier, sur les monastères et sur chaque fidèle. ». Cf. p.88. 917 Cf . Supra , p. 68 et 257 . 918 BONAGUIDA DE ARETINIS, Tractatus de privilegiis et dispensationibus, dans Tractatus illustrium in utroque tum pontificii, tum caesarei iuris facultate iurisconsultorum, vol. XIV, Venetiis, 1584, folio. 173rb-174rb. [276] « Une chose est que les évêques peuvent, dans tous les cas, administrer [dispenser], surtout les cas pour lesquels le fondateur du canon [le Pontife romain] ne s’est pas réservé pour luimême la gestion [la dispense]...Une autre opinion est que dans aucun cas les évêques ne pouvaient administrer [dispenser], sinon là où [on trouve] une concession expresse [en vertu] du droit [...] et [parce que] cette opinion me paraît beaucoup plus harmonieuse que le droit »919. Comme nous le remarquons, ce qui vient d’être dit laisse apparaître un malaise chez les canonistes pour concevoir une doctrine du pouvoir des évêques en matière de dispenses canoniques dans son rapport avec la plenitudo potestatis du Pontife romain. L’auteur indique deux opinions relativement opposées : l’une reconnaît que les évêques ont tous les pouvoirs de dispenser, restant sauves les causes réservées à l’autorité suprême ; l’autre retient seulement les cas pour lesquels ce pouvoir leur a été délégué pour des situations particulières. La thèse généralement admise par presque tous les historiens du droit canonique, est celle que nous avons évoquée précédemment en faisant référence à Louis THOMASSIN, à savoir que les évêques ont eu, dès le commencement de l’Église, le pouvoir de donner des dispenses. Avec le temps, une grande partie de ces dispenses a été réservée au Saint-Siège, soit par la volonté même des évêques, soit par d’autres voies, sans que les Papes s’y soient ingérés920. L’accroissement du pouvoir pontifical, comme nous l’avons montré à la section précédente, a eu pour conséquence la limitation du pouvoir des évêques. Ces derniers en sont réduits à légiférer dans certaines circonstances particulières ou à dispenser, avec délégation pontificale, dans leurs diocèses. D’ailleurs, même au sein des juridictions diocésaines, ils ont l’obligation de tenir compte du pouvoir suprême du Pontife romain921. S’ajoutent les privilèges d’exemptions pour les ordres religieux de droit pontifical que nous voyons naître au Moyen Âge ; ils sont des exemples de juridictions instaurées et dont le gouvernement 919 « Una est, quod episcopi possunt dispensare in omnibus casibus, in quibus conditor canonici dispensationem sibi non reseravit...Alia opinio est, quod in nullo casu dispensare possint, nisi ubi eis a iure invenitur concessum expresse...Et quia haec opinio mihi videtur magis consona iure... » Voir BONAGUIDA DE ARETINIS, Tractatus de privilegiis et dispensationibus, op. cit., fol. 173vb. 920 Cf. Louis THOMASSIN, Ancienne et nouvelle discipline de l’Église, t. IV. De la pluralité des bénéfices, op. cit., p.108. 921 Cf. Gabriel Le BRAS, Charles LEFEBVRE et Jacqueline RAMBAUT-BUHOT, L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op.cit., p. 194. [277] échappait de plus en plus souvent aux évêques diocésains922, ce qui crée, pour ainsi dire, de petites juridictions privilégiées au sein de la juridiction diocésaine. Le pouvoir épiscopal s’exerce à travers les prescriptions des statuts promulgués dans des synodes diocésains et des conciles provinciaux.923 Cependant, même s’il faut reconnaître, dans une certaine mesure, la liberté dont jouissent les évêques dans l’organisation des synodes, les décisions synodales ne seraient pas toujours à l’abri des influences extérieures, ni ecclésiastiques, ni civiles. Les membres des conciles provinciaux et des synodes diocésains ont eu une influence certaine sur les décisions synodales et sur l’application des dispositions générales. Cette influence ne pouvait que limiter le pouvoir épiscopal. Nous trouvons, à titre d’exemple, une décrétale d’Innocent III reprise par Grégoire IX dans le Liber Extra, qui recommande à l’archevêque de Sens et à ses suffragants, non seulement d’inviter le Chapitre de l’Église cathédrale au concile provincial mais, plus encore, de tenir compte de son avis. Cette décrétale oblige les évêques à consulter les membres du synode avant la promulgation des décisions synodales924. 922 Cf. Paul De VOOGHT, Les pouvoirs du concile et l’autorité du Pape au concile de Constance, Éd. du Cerf, 1965, p. 22. 923 En effet, sous l’impulsion de la réforme grégorienne, il n’est pas rare de constater que les synodes diocésains se réunissent déjà fréquemment. Sur ce point nous renvoyons à quelques études d’Odette P ONTAL, « Le synode diocésain et son cérémonial du XIIe au XIVe siècle », AC, t. XIV, 1970, p. 53-61 ; ID., Les statuts synodaux français du XIIIe siècle précédés de l’histoire du synode diocésain depuis ses origines. Les statuts de Paris et le synodal de l’Ouest, t. I, Paris, CTHS, 1971, p. LVII-LXVII. Voir aussi Michel RUBELLIN, Église et société chrétienne d’Agobard à Valdès, PULyo, 2003, spécialement les pages 513ss. Est connue cette première règlementation universelle de chaque Église locale (province) et de chaque Église particulière (diocèse) : c’est la règlementation faite par le IVe Concile de Latran (1215) qui, au c. 6 dispose : « On renouvelle les anciens décrets touchant la tenue des conciles provinciaux chaque année, pour la réforme des mœurs, principalement du clergé; et afin qu'on y puisse réussir, il est ordonné qu'on établira en chaque diocèse des personnes capables qui, pendant toute l'année, s'informeront exactement des choses dignes de réforme, pour en faire leur rapport au concile suivant. » Gian Domenico MANSI, Sacrorum Conciliorum nova et Amplissima collectio, t. XXII, col. 991-992. Cf. aussi X. 5.1.25 : « Sicut... Metropolitani ad correctionem excessuum et reformationem morum singulis annis facere debent provinciale concilium, in quo statuere debent personas idoneas per singulas dioeceses, quae sollicite investigent, et in sequenti concilio referant corrigenda. Et episcopi debent facere synodos episcopales singulis annis, et publicare agitata in provinciali concilio, et haec negligentes ab exsecutione officii suspenduntur.» (De même...chaque année les métropolitains doivent tenir un concile provincial en vue d’une correction des excès et une réforme des mœurs. Au cours de ce concile, ils doivent déterminer des personnes méritantes pour chaque diocèse. Celles-ci découvriraient avec précaution et reporteraient au concile suivant les points devant être corrigés. Et les évêques doivent organiser des synodes épiscopaux chaque année, et en publier les actes dans le concile provincial. En négligeant ces faits, ils sont suspendus relativement à l’exécution de cette obligation morale...) Traduction libre. 924 Cf. X.3.10.10 : « Ad concilia provincialia vocari debent et admitti cathedralium ecclesiarum capitula . » (On doit convoquer et faire entrer aux conciles de province les chapitres des églises cathédrales ) [278] Il semble que ni les Décrétales de Grégoire IX (1234), ni le Sexte de Boniface VIII (1298), ni les Clémentines de Clément V publiées par Jean XXII (1317), ne donnent des principes qui règlent de manière claire la question du fondement du pouvoir des évêques en matière de dispense canonique. Les positions des uns et des autres sont encore balbutiantes. Aucune règle ne définit plus strictement les dispenses qui reviennent ‘de droit’ aux évêques. Et pourtant, les collections des canonistes médiévaux précédemment analysées, celles de BERNOLD de Constance et d’YVES de Chartres, ne semblent pas mettre en doute le pouvoir des évêques en matière de dispenses canoniques. Ces canonistes ne se préoccupaient nullement de donner un fondement canonique à ce pouvoir. De même, Joseph BRYS note que pour les Décrétistes, à la suite de GRATIEN, les évêques pouvaient dispenser, au XIIe siècle, de leurs propres lois, mais aussi des lois universelles en vertu d’une coutume tacite observée depuis l’Antiquité chrétienne. Les évêques pouvaient aussi bénéficier, en vertu des délégations des princes, des facultés d’accorder des dispenses925. Au sujet du fondement du pouvoir des évêques en matière de dispense, plusieurs hypothèses ont été émises dès le Moyen Âge, tant par certains Pontifes romains eux-mêmes, par les Décrétistes, par les Décrétalistes que par les autres canonistes. Les uns admettaient ce pouvoir uniquement quand il n’avait pas fait l’objet d’un refus exprès par suite d’une réserve pontificale. Les autres pensaient que les évêques pouvaient dispenser quand cela ne leur avait pas été expressement interdit ou si, manifestement, les faits historiques montraient qu’ils avaient exercé ce pouvoir dans le passé. Ou bien, ils rappelaient qu’était accordé aux évêques le pouvoir de dispenser seulement dans les cas de dispenses, in factis, et non in faciendis. D’autres encore mettaient en avant la doctrine qui refuse aux évêques le pouvoir de dispenser de la loi universelle, sauf concession spéciale du Pontife romain926. 925 Joseph BRYS, De dispensatione in iuris canonico, praesertim apud decretistas et decretalistas, usque ad medium s. XIV, op. cit., p. 77ss et 85ss. Voir aussi Gabriel Le BRAS, LEFEBVRE, Charles et RAMBAUT-BUHOT, Jacqueline, Histoire du droit et des institutions de l'Église en Occident. L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op.cit., p. 519. 926 Cf. Gabriel Le BRAS, Charles LEFEBVRE, et Jacqueline RAMBAUT-BUHOT, L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op.cit., p. 521. Toutes ces hypothèses nous montrent, à nous canonistes du XXIe siècle, que la doctrine relative au pouvoir des évêques en matière de dispenses était sujette à plusieurs controverses. [279] Pour notre part, c’est au détour des préoccupations rencontrées par les autorités ecclésiastiques que nous trouvons des éléments pouvant aider à comprendre ce pouvoir des évêques en matière de dispenses canoniques927. Au XIIe siècle, durant le pontificat d’Alexandre III (1159-1181), certains cardinaux sont des légats a latere qui, en même temps, exercent auprès des Églises locales, par délégation, le pouvoir dû au Pontife romain. Dans ce cadre, les pouvoirs que ces cardinaux prétendaient détenir de Rome ne pouvaient être qu’en conflit avec la juridiction épiscopale. Les causes majeures (causae maiores) qui, depuis Grégoire VII, étaient réservées au Siège apostolique restaient soustraites à l’autorité et à la juridiction épiscopale928. Dans une de ses décrétales, At si clerici, Alexandre III reconnaît néanmoins aux évêques le pouvoir de dispenser des peines concernant des crimes de moindre gravité et des peines de délits d’adultère. Nous reproduisons ici un extrait de cette décrétale : « [...] En vérité au sujet d’adultères et autres crimes qui sont moindres, l’évêque peut, avec ses clercs, dispenser après un acte de pénitence accomplie, afin qu’ils servent avec zèle sous ses ordres ; mais il ne doit pas transmettre une quelconque déposition par ses propres excès du droit séculier, alors qu’on a accompli son office, ni qu’il doive traiter avec mépris le même individu au moyen d’une contrition »929. Cette position d’Alexandre III au XIIe siècle sera largement commentée au XVe siècle par ANGELUS de Clavasio (1411-1495) dans sa Summa angelica de casibus conscientiæ930. Cet auteur semble étendre le domaine de ce qui a été dit dans la décrétale d’Alexandre III (in omnibus criminibus minoribus adulterio) aux crimes plus graves d’hérésie, de schisme, de sacrilège. Pour lui, l’évêque peut aussi dispenser contra canonem et concilium, c’est-à-dire contre les canons (la loi générale) et contre les décisions des conciles, même quand la faculté ne lui a pas été expressément concédée. Pour le cas en présence, quatre 927 Nous faisons abstraction des cas d’urgente nécessité. Dans l’Antiquité chrétienne comme au Moyen Âge, ces cas ont toujours attiré l’attention de l’autorité ecclésiastique. Ils ont toujours bénéficié d’un traitement particulier en droit ecclésiastique. Le pouvoir de dispenser est reconnu aux évêques en cas de nécessité urgente ou de grande utilité en raison d’équité. Ce pouvoir qu’on reconnaît aux évêques dans ces cas proviendrait de la coutume, l’urgente nécessité étant considérée comme une cause juste. La seule exigence à laquelle ces cas sont soumis est l’intérêt public. Ils doivent être en lien avec l’intérêt public de l’Église. Cf. Gabriel Le B RAS, Charles LEFEBVRE, et Jacqueline RAMBAUT - BUHOT, Histoire du droit et des institutions de l'Église en Occident. L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op. cit., p. 523. 928 Idem, p. 191. 929 X.2.1.4 : «.... De adulteriis vero et aliis criminibus, quae sunt minora, potest episcopus cum suis clericis post per actam poenitentiam dispensare, ut in ordinibus suis deserviant ; sed non debet quemlibet depositum pro suis excessibus, quum suo sit functus officio, nec duplici debeat ipsum contritione conterere, iudici tradere saeculari. » 930 ANGELUS de Clavasio, Summa angelica de casibus conscientiæ, Venezia, Gregorius Arrivabene, 1492. [280] conditions peuvent chacune justifier la concession de la dispense : soit lorsque la coutume lui en a donné le droit, soit dans des cas de grande nécessité ou de grande utilité, soit lorsque surgissent des nouveaux cas qui n’avaient pas été prévus au moment de la promulgation de la loi, soit lorsque la loi elle-même établit la possibilité d’une dispense sans en indiquer l’autorité931. Ne doit-on pas considérer ce commentaire d’ANGELUS de Clavasio comme excessif? Cela ne peut nous surprendre dans la mesure où le XVe siècle est marqué par les controverses autour de la juridiction universelle et par les théories qui revalorisent le pouvoir des évêques. Nous y reviendrons à l’article suivant. Une autre décrétale du XIIe siècle d’Innocent III (1198-1216), Nuper a nobis, reconnaissait aux évêques le pouvoir d’absoudre des censures : « Ceux qui communiquent [nominativement], en toute connaissance de cause, avec les excommuniés, pourraient être absouts de l’excommunication au moyen d’une confession, par un simple prêtre [ou] une absolution soit de l’évêque soit de l’archevêque. [Elle] devrait être sollicitée pour ceux-ci [les excommuniés], et si après un acte de repentance, qu’on veuille bien gérer avec ceux-là »932. Nous avons déjà eu l’occasion d’évoquer l’importance de l’excommunication dans l’Église médiévale avec le Decretum gratiani. Ce qui est dit dans la décrétale Nuper a nobis est à comprendre dans le sens de l’interdiction faite aux fidèles d’entrer en relation avec un excommunié. La peine encourue, pour ces fidèles, est l’excommunication. La décrétale précitée n’est pas, en réalité, un pouvoir au sens propre mais une faculté accordée aux simples prêtres, aux évêques et aux archevêques pour l’absolution des délits d’excommunication et d’adultère. Parler d’une faculté ici nous semble juste, dans la mesure où, dans la même décrétale, Innocent III réserve au Pontife romain le pouvoir général de dispenser de toutes les lois ecclésiastiques933. 931 Cf . ANGELO de Clavasio, Summa angelica de casibus conscientiæ,V. Dispensatio,5, cité par Antoine VILLIEN, « Dispenses », dans DTC., t.IV/2, Paris, Letouzey et Ané, 1911, Col. 1435. 932 X.5.39.29 : «...Et utrum , qui nominatim excommunicatis scienter communi cant, absolvi ab excommunicatione possint per confessionem a simplici sacerdote , vel episcopi seu archiepiscopi sit ab eis absolutio expetenda, et, si post actam poenitentiam cum illis valeas dispensare. » 933 Cf. X. I.6.20 (Innotuit nobis...), X.3.8.4 (Proposuit nobis...). Pour Joseph BRYS, même si cette réserve est énoncée quelque fois de façon absolue, cela n’implique pas que seul le Pontife a ce pouvoir de dispenser des lois communes. Joseph BRYS, De dispensatione in iuris canonico, praesertim apud decretistas et decretalistas, usque ad medium s. XIV, op. cit., p. 243ss. Voir aussi Gabriel Le BRAS, Charles LEFEBVRE, et Jacqueline RAMBAUTBUHOT, Histoire du droit et des institutions de l'Église en Occident. L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op. cit., p. 520. [281] Il nous semble qu’à l’époque du pontificat d’Innocent III, le droit canonique n’est pas encore solidement constitué en un corps de lois universellement accepté. Aussi, en son temps et nous l’avions noté plus haut, le Saint-Siège tend à centraliser le pouvoir. Pour cette raison, la reconnaissance du pouvoir de l’évêque d’absoudre les peines de l’excommunication et de l’adultère serait une concession qui relèverait de l’exercice du pouvoir discrétionnaire du Pontife romain. Comment peut-on justifier ce pouvoir reconnu aux évêques dans cette décrétale d’Innocent III? Nous ne pouvons proposer ici qu’une hypothèse. D’abord, l’absolution rétablit le délinquant dans la communion de l’Église. L’excommunication, déjà en droit canonique médiéval, est une censure. Celle-ci est une sanction pénale dont le but principal est l’amendement du délinquant et non son châtiment934. Qu’elle soit infligée à titre d’excommunication, d’interdit ou de suspense, une censure peut être absoute lorsque cesse la contumace ou l’obstination dans le délit. Ce sens donné à l’excommunication peut donc aider à comprendre la clause de la décrétale Nuper a nobis qui reconnaît aux évêques le pouvoir d’absoudre les excommuniés. Cherchant à obtenir l’amendement du délinquant, la censure n’est jamais infligée à perpétuité ni pour un temps déterminé, mais jusqu’à la contrition du coupable. Or, pour le cas d’un excommunié, l’autorité de l’évêque serait la seule capable de constater la cessation de la contumace. Il semble que, pour une raison pratique, il était plus juste, pour le Saint-Siège, de reconnaître aux évêques la faculté d’absoudre la censure due à l’excommunication935. 934 La censure « reprend un mécanisme bien établi à Rome. Le terme de censure vient du latin censere. Le censeur était un magistrat, chargé de tenir l’état civil et de veiller sur les mœurs publiques. Dès qu’un citoyen se comportait mal dans la société ou portait atteinte aux valeurs politiques de la cité, ce magistrat lui adressait une sorte de blâme ou censure, sans procès préalable. Progressivement, cette désapprobation fut comprise comme une sanction pénale. Au IXe siècle, l’Église adopte cette conduite. Il s’agit de remettre les pécheurs, « fils prodigues » de l’Évangile, sur le bon chemin. La censure est alors une critique de la conduite du pécheur, une réprimande dont le Décret de Gratien donne plusieurs significations : la censure a tantôt un sens disciplinaire, tantôt un sens pénal (C. VII, q. 1, c. 23, 24, 29). A la fin du XIIème siècle l’autorité suprême de l’Église donne à la censure la signification qu’elle a aujourd’hui en droit canonique. Le pape Innocent III (1198-1216) et les conciles de cette époque déterminent que la censure est désormais pour l’Église une sanction pénale appliquée à un pécheur pour le corriger. » Voir dans Jeanne-Marie TUFFERY-ANDRIEU, La conversion dans le code de droit canonique de l’Église catholique de rite latin, Cahiers d’études du religieux. Recherches interdisciplinaires, 7, 2009 mis en ligne le 26 octobre 2009, consulté le 20 octobre 2016. URL : http://cerri.revues.org/491 935 D’ailleurs, écrit Brigitte BASDEVANTGAUDEMET : « Pour une longue période du Moyen Âge, le droit de l’Église s’étend et englobe tous les aspects de la vie sociale ou familiale. La vie enne est ponctuée par les prescriptions canoniques élaborées en concile [...] Si l’évêque excommunie, il lui revient aussi de lever l’excommunication. À lui de savoir si celui qui était tombé dans l’erreur, ou qui avait commis un adultère, s’est corrigé, a accompli une pénitence suffisante pour être rétabli dans la communion. L’évêque sanctionne et lève les sanctions ». Voir Brigitte BASDEVANT-GAUDEMET, « L’évêque d’après la législation de quelques conciles [282] La question qui mérite d’être posée ici est celle de savoir si l’absolution est du domaine de la dispense canonique. Il est difficile de répondre à cette question. D’ailleurs, au Moyen Âge, la distinction entre ces deux notions, c’est-à-dire absolution936 et dispense, n’était pas clairement établie. Au XIIIe siècle, Innocent IV (1243-1254) rappellera que l’évêque peut toujours dispenser pour tolérer ce qui a été fait, sauf interdiction formelle937. Cette position a été annoncée dans le cadre de la discussion relative aux dispenses in factis et in faciendis938. L’on se rappelera que cette question avait déjà fait l’objet des réflexions des canonistes dès avant le XIe siècle. Doit-on parler d’une dispense dans le cas où le fait jugé contraire à la loi a été déjà commis? Pour les Décrétistes, après GRATIEN, une telle dérogation est à considérer comme une dispense. Ce que rejette Innocent IV pour qui cette doctrine est une interprétation erronée de la notion de dispense canonique939. C’est dire donc que la compétence qu’Innocent IV reconnaît aux évêques n’a aucun lien avec le pouvoir de dispenser. Elle est une manière d’accommoder le fait à la loi. Il nous faut constater que la question du pouvoir des évêques en matière de dispenses ne trouvera pas une solution satisfaisante. Le nombre important de cas de dispenses réservées à la seule compétence du Pontife romain ne pouvait ni favoriser la gestation d’une réflexion théologique et canonique sur le fondement du pouvoir des évêques, ni revenir à la discipline observée dans l’Antiquité du christianisme en cette matière. Dans la suite de notre argumentation, nous prenons un cas qui, davantage que d’autres, intéresse le pouvoir des évêques au Moyen Âge : c’est la question matrimoniale. mérovingiens », dans Brigitte BASDEVANT-GAUDEMET, Église et autorités. Études d’histoire de droit canonique médiéval, op. cit., p. 91. 936 Pour l’importance de la notion d’absolution, nous renvoyons aux travaux de Cyrille V OGEL, Le pécheur et la pénitence au Moyen Âge, Paris, Éd. du Cerf, 1969. 937 Cf. Gabriel Le BRAS, Charles LEFEBVRE, et Jacqueline RAMBAUT-BUHOT, Histoire du droit et des institutions de l'Église en Occident. L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op. cit., p. 520. 938 Sur la difficulté de fixer la doctrine canonique relative aux dispenses a posteriori dans le domaine matrimonial par exemple, avant le IVe concile de Latran (1215), voir l’étude de Florence D EMOUILIN, « Exceptio temporis : prescription romaine et dispense en matière matrimoniale au début du XIII e siècle », dans Proceedings of the Tenth International Congress of Medieval Canon Law, Rome, Biblioteca Apostolica Vaticana (Monumenta iuris canonici, series C,), t. XI, 2001, p. 943-964. 939 Cf. Gabriel Le BRAS, Charles LEFEBVRE, et Jacqueline RAMBAUT-BUHOT, Histoire du droit et des institutions de l'Église en Occident. L'âge classique (1140 – 1378) : Sources et théorie du droit, t.VII, op. cit., p. 517. [283] §. 2. Pouvoirs des évêques diocésains et question matrimoniale. La question matrimoniale est l’une de celles qui ont fait l’objet des dispens es canoniques . C’est aussi celle qui a provoqué, déjà au Moyen Âge, des discussions importantes en droit canonique. Ces discussions ont porté pour l’essentiel sur l’existence d’un droit qu’auraient les évêques, depuis l’Antiquité chrétienne, non seulement d’édicter des empêchements matrimoniaux, mais aussi d’en dispenser quand cela est nécessaire940 . Les évêques, d’après cette hypothèse, avaient un pouvoir législatif qui leur donnait compétence de dispenser des empêchements matrimoniaux. Comme pour le pouvoir des évêques en matière de dispenses en général, c’est au fur et à mesure des siècles que ce pouvoir des évêques sur les questions matrimoniales sera réservé aux conciles provinciaux, aux conciles nationaux puis aux conciles œcuméniques. La réserve pontificale serait donc l’une des conséquences de ce transfert de compétences de la juridiction épiscopale à la juridiction pontificale. L’importance de la matière n’avait-t-elle pas aussi contribué à en réserver la dispense au Pontife romain? Nous ne pouvons que le supposer faute de preuves canoniques en la matière. Il nous faut simplement constater que le pouvoir d’édicter les empêchements matrimoniaux, comme celui d’en dispenser, a été peu à peu retiré de la juridiction épiscopale déjà au XIIe siècle avec Innocent III. C’est ce qu’affirme Gabriel LE BRAS : « De la plupart des empêchements, dispense pouvait être obtenue. Les évêques l’accordaient jusqu’au jour où Innocent III réserva ce droit au Saint-Siège, qui en usait bien souvent depuis le début de la réforme grégorienne »941. N’est-ce pas là l’application du principe énoncé dans la décrétale De electione et electis potestate de Clément V (1305-1314) au concile de Vienne (1311) à laquelle nous avons fait allusion précédemment? 940 Cf. Gabriel LE BRAS, « Le mariage dans la théologie et le droit de l’Église du XI e au XIIIe siècle », CCM., Vol. XI/42, avril-juin 1968, p. 191-202, voir spécialement la p. 196 où l’auteur note : « De la plupart des empêchements, dispense pouvait être obtenue. Les évêques l’accordaient jusqu’au jour où Innocent III réserva ce droit au Saint-Siège, qui en usait bien souvent depuis le début de la réforme grégorienne. » Gabriel LE BRAS , citant plusieurs sources, montre l’importance, pour l’Église, de l’institution du mariage. Elle crée la condition de la plupart des fidèles adultes et de la petite société qu’ils fondent. À cette raison sociale et morale, pratique et juridique s’ajoutait, déjà aux XIe et XIIe siècles une raison proprement religieuse et théologique : l’Écriture Sainte. 941 Gabriel Le BRAS, « Le mariage dans la théologie et le droit de l’Église du XI e au XIII e siècle », CCM., Vol. XI/42, avril-juin 1968, p. 196. [284] En effet, selon ce principe, la loi d’un supérieur ne peut être abrogée ou dérogée par la décision d’un inférieur942. Or, pour le cas présent, le Pontife romain, en se réservant le pouvoir de constituer les empêchements, devenait le seul capable, juridiquement, d’en dispenser. Cette question des empêchements matrimoniaux avait continué à faire l’objet des préoccupations des conciles tant généraux que particuliers jusqu’au XVIe siècle. Citons l’exemple le plus connu, celui du concile de Trente. Durant la célébration de celui-ci, plusieurs positions s’affrontent et s’opposent. Certains affirmaient que le pouvoir de dispenser des empêchements est un pouvoir propre aux évêques. D’autres énonçaient la thèse selon laquelle ce pouvoir appartient de manière ordinaire au Pontife romain et par délégation aux évêques. D’autres encore, sortant du cadre ecclésiastique, faisaient du prince l’origine de tout droit de dispenser des empêchements matrimoniaux943. Ces différentes positions adoptées par les uns et les autres sont sans doute la conséquence de la doctrine soutenue, selon qu’est prônée la cause, soit des évêques, soit du pontife romain, soit encore du pouvoir régalien. Laissons de côté le pouvoir des princes dans ces querelles pour des questions matrimoniales944. Fixons-nous sur les deux premières positions. Dans ces deux premières thèses, sont notamment en concurrence les conceptions des pouvoirs d’ordre et de juridiction. Les notions de pouvoir d’ordre et de juridiction seront reprises dans plusieurs chapitres des sessions du concile de Trente (1545-1563). Elles sont des réponses à la théologie élaborée par les tenants de la réforme protestante naissante au XVIe siècle. La réflexion de l’Église catholique latine s’é donc sur le fond d’une contre-réforme qui cherche à se constituer. 942 Cf. Clément V, Ne Romani electioni, dans Clem. I.3.2 : «...lex superioris per inferiorem tolli non potest...» (...la loi d’en haut ne peut être enlevée par un être inférieur...) 943 Cf. Ludovic DANTO, Le pouvoir des évêques en matière de dispense matrimoniale : étude historicocanonique du concile de Trente au Code de droit canonique de 1983, Rome, Pontificio Istituto Biblico, 2012, p. 11. 944 La question du pouvoir des princes en matière de mariage tient à la querelle entre la papauté et le pouvoir royal. L’article suivant en fait état. Elle s’articule d’une part entre l’affirmation de la plenitudo potestatis du Pontife romain sur le plan tant spirituel que temporel et les nombreuses réserves pontificales et, d’autre part, la revendication de ce même pouvoir par les princes catholiques s’estimant seuls capables de créer l’union des personnes par les liens du mariage. [285] Nous ne pouvons proposer un exposé sur ces deux notions. Nous renvoyons ainsi aux analyses de Laurent VILLEMIN945. Retenons du moins qu’au sujet du pouvoir épiscopal, le concile de Trente, à sa session 23, n’a pas voulu affirmer de manière claire l’institution divine du pouvoir épiscopal. Il n’a établi que sa supériorité sur les prêtres. Le choix du concile se penche vers la distinction entre le pouvoir d’ordre et le pouvoir de juridiction. Alors que le premier est, de façon immédiate, d’origine divine, le second serait attribué aux évêques mediante Romano Pontifice946. Le concile de Trente (1545-1563) établit une nette distinction entre les deux juridictions, pontificale et épiscopale. Comme nous l’avions fait remarquer précédemment, toute matière ayant trait à la notion de juridiction influence la compréhension de la dispense canonique. Ainsi par exemple, le 7e chapitre de la 14e session justifie le pouvoir du Pontife romain en matière de dispense des lois et les cas des réserves en évoquant son pouvoir suprême et sa juridiction universelle : « [...] Mais un point a paru à nos très saints Pères concerner spécialement la discipline du peuple chrétien que certains péchés, des plus atroces et des plus graves, ne puissent être absous par n'importe quel prêtre, mais seulement par ceux du plus haut rang. Aussi est-ce à juste titre que les souverains pontifes, en vertu du pouvoir suprême qui leur a été donné dans l'Église universelle, ont pu réserver à leur jugement particulier certaines causes délictueuses plus graves. Et l'on ne doit pas douter, puisque tout ce qui vient de Dieu a été disposé par ordre [Rm. 13,1], que cela soit permis à chaque évêque dans son propre di cèse, “pour l'édification, non pour la destruction” [2Co. 10,8 ; 2Co. 13,10], en vertu de l'autorité qui leur a été donnée sur leurs sujets et qui dépasse celle des autres prêtres inférieurs, surtout pour les fautes auxquelles est attachée une censure d'excommunication. C'est en plein accord avec l'autorité divine que cette réservation des fautes a valeur non seulement dans la discipline extérieure, mais aussi devant Dieu »947. Ce qui vient d’être noté est d’une grande importance dans la mesure où cela donne un contenu au pouvoir des évêques. C’est une disposition qui, non seulement reconnaît aux évêques le pouvoir de juger des censures d’excommunication, mais semble aussi, dans une certaine mesure, revenir à la doctrine antique où, pour leurs sujets, les évêques avaient de larges compétences. Mais devons-nous dire que la distinction des deux juridictions dans le chapitre de la session mentionnée est une avancée en matière de dispenses? Porte-t-elle atteinte au système canonique de la réserve pontificale? À cette question, notre réponse doit 945 Laurent VILLEMIN, Pouvoir d’ordre et pouvoir de juridiction. Histoire théologique de leur distinction, Paris, Éd. du Cerf, 2003. 946 Cf. l’exposé de Charles Joseph HEFELE-LECLERCQ, Histoire des Conciles d’après les documents originaux, t. X, Paris, Letouzey et Ané, 1938, p. 476-477. 947 Concile de Trente, sess. XIV, chap. 7 Voir Gian Domenico M ANSI, Sacrorum Conciliorum nova et Amplissima collectio, t. XXXIII, col. 96. [286] être nuancée. Dans ce chapitre 7, le jugement de certaines causes délictueuses plus graves est réservé au Souverain Pontife. D’autre part , ce chapitre 7 établit une autre distinction entre les causes délictueuses plus graves et les fautes attachées à une censure d'excommunication. Il nous semble que c’est dans cette deuxième distinction qu’il faut situer la différence entre la dispense donnée par grâce et la dispense de justice. La première appartiendrait au seul législateur suprême. Dans celle concédée par justice intervient le principe de l’équité. Nous l’avions noté plus haut, au nom de cette équ ité, l’évêque, dans le cas d’une censure et par suite de l’amendement constaté du délinquant, accorde une dispense de justice. Nous remarquons que, tout en étant importante, la réforme introduite par le concile de Trente ne nous paraît pas conséquente quant au pouvoir des évêques en matière de dispenses canoniques. L’incertitude constatée dans nos précédentes analyses n’est pas surmontée par le concile de Trente. C’est peut être pour cette raison que, pour faciliter le gouvernement des Églises particulières, le Siège de Rome, depuis le XVIIe siècle948, concédait des facultés extraordinaires aux évêques et aux ordinaires. Ces facultés sont en réalité des délégations reçues du Pontife romain à échéance plus ou moins longue. Ces facultés peuvent concerner un cas en présence ou un nombre limité de cas, une série de cas. Elles peuvent être accordées pour une ou pour plusieurs années949.
14,068
296ea147ffd6c6fabbe8a2cd29cafd49_1
French-Science-Pile
Open Science
Various open science
null
Les trésors sous-marins. Entre fantasmes et réalités.. Sabrina Marlier; Michel L'Hour; Alain Charron; David Djaoui. Trésors du fond des mers. Un patrimoine archéologique en danger [: catalogue de l'exposition, Musée départemental Arles antique, du 22 octobre 2022 au 20 février 2023], Illustria, pp.23-27, 2022, 978-2-35404-103-8. &#x27E8;hal-04486020&#x27E9;
None
French
Spoken
2,074
3,638
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Les trésors sous-marins. Entre fantasmes et réalités Michel L’Hour, Sabrina Marlier U n colloque international tenu en février 2001 à Carrare, en Italie, avait souhaité interpeller le monde de l’archéo­logie sur la notion de Trésor sous-marin! Mythe ou réalité? C’était sans doute de la part des organisateurs d’une grande habileté que d’introduire à ce questionnement fondamentalement épistémologique tout en bénéficiant de l’effet d’annonce, que l’association des mots « trésor » et « sous-marin » ne pouvait manquer de susciter, l’imaginaire se plaisant à accoler ces deux termes. Le seul énoncé du mot « trésor » semble en vérité porter déjà en soi une capacité d’attraction presque hypnotique. Il suffit pour le vérifier de consulter cet autre univers où mythe et réalité se mêlent parfois jusqu’à la confusion : celui de la Toile mondiale. Les chiffres y sont révélateurs. Les mots trésor et treasure ouvrent en effet respectivement sur 41 et 590 millions d’occurrences, sur encore pas moins de 5,4 et 34 millions de pages web lorsqu’ils sont accompagnés des référentiels sous-marin et underwater, et encore sur 4,3 millions de pages dans l’hypothèse d’une recherche portant sur underwater archaeological treasure. Ces chiffres, éminemment éclairants quand on les met en regard avec d’autres sujets qui ont la faveur du public, sont, on le voit, considérables. L’analyse du champ sémantique qui associe si régulièrement la notion de trésor et le patrimoine culturel sous-marin mériterait d’ailleurs de ne pas rester exclusive, les musées faisant eux-mêmes, pour ne citer qu’eux, un usage quasi forcené du mot en l’accolant à presque tous les sujets. Sur le seul web francophone, on recensait notamment en fin d’année 2021 et au début de l’année 2022 : Trésor révélé (des biens d’église), à Lille ; Les Trésors de la collection Al Thani (des œuvres d’art), à l’Hôtel de la Marine, à Paris ; Mon Corps Trésor (des œuvres de femmes qui ont appris à aimer leur corps), en Narbonnaise ; Trésors de Banlieues (l’effervescence artistique des banlieues), à Gennevilliers ; Mon Précieux... À chacun son Trésor (de Fig. 1. Récupération du trésor au fond de la baie de Vigo (gravure sur bois d’après le dessin de A. de Neuville, vol. 2, première édition de Vingt Mille Lieues sous les mers, 1869-1870). l’archéologie aux sciences de la terre), à Rouen ; Trésors de Diplomatie (cadeaux diplomatiques), à Verdun ; Trésors microcosmes (la vie des insectes), à Strasbourg ; Biodiversité, mon Trésors du fond des mer s . Un patrimoine archéologique en danger Fig. 2.24L’Éphèbe d’Anticythère aujourd’hui exposé au Musée national archéologique d’Athènes. Les trésors sous-marins. Entre fantasmes et réalités Trésor, à Marseille, etc. sans compter le titre de la présente exposition Tré sors du fond des mers. Un patrimoine archéologique en danger, à laquelle le mot « trésor » sert indéniablement d’accroche « marketing » même si l’on s’efforce dans le cas de circonscrire un terme par ailleurs trop galvaudé! Et l’on pourrait ainsi poursuivre à l’infini cette énumération puisque la Toile recensait, en mars 2022, 16 millions de pages traitant d’expositions et de trésors. On le voit, si le mot ouvre à l’évidence une porte sur le mythe et le fabuleux, il est aussi aujourd’hui mobilisé, voire banalisé, pour désigner plus généralement tout ce qui s’apparente à l’ancien, l’inhabituel, l’étonnant, le rare, le beau, le spirituel, et tout ce qui véhicule le rêve. À cet égard il était donc totalement légitime qu’on l’applique très tôt au monde sous-marin et a fortiori au monde du patrimoine sous-marin puisque les épaves sont elles-mêmes de fantastiques machines à rêver 1. La littérature n’a pas non plus manqué de s’emparer du mythe qui, dès le xixe siècle, a bercé les enfances occidentales puis celles des mondes lointains de romans d’aventures comme Vingt Mille Lieues sous les mers, traduit dans plus de cent soixante-dix langues, L’Île au trésor ou Le Trafiquant d’épaves 2 qui font une part belle aux aventures maritimes et aux trésors et cargaisons immergés ou enfouis sur quelque lointain rivage. Ainsi, tandis que Jules Verne nous entraîne avec le capitaine Nemo, à bord du Nautilus, à la découverte de trésors engloutis et d’épaves de navires anciens (fig. 1), c’est à une véritable course au trésor autour de l’épave du Flying Scud, échoué sur les récifs coralliens de l’île de Midway, ou sur le pont de l’Hispaniola, que martèle pour toujours la jambe de bois du pirate Long John Silver, que nous convie Robert Louis Stevenson. Romans maritimes aussi bien que d’aventures, études de mœurs autant qu’itinérances initiatiques, ces ouvrages devenus cultes sur l’horizon littéraire planétaire ont notoirement contribué à peupler l’inconscient mondial de navires et d’épa chargés de richesses inouïes et hantés par des héros assez courageux pour affronter cet autre inconnu que sont les espaces océaniques. Qu’ils soient la simple projection littéraire d’une pensée fantasmatique déjà intériorisée par tous ou plutôt l’expression d’une littérature pionnière qui contribue au xixe siècle à façonner et fasciner l’esprit de chacun, ces romans ont dans tous les cas popularisé et solidement ancré dans la mémoire collective l’idée que le trésor sous-marin, qu’il soit composé de statues de marbre, de bronzes antiques, de coffres remplis de pierres précieuses, de pièces de huit ou de lingots d’or, justifie, plus encore que son homologue de terre ferme, qu’on se mette à sa quête car sa mise au jour puis son appropriation permettront de prodigieusement s’enrichir et de changer radicalement de vie. Fig. 3. Buste en marbre d’Aphrodite découvert sur l’épave de Mahdia et aujourd’hui exposé au musée national du Bardo de Tunis. Au début du xxe siècle, la réalité allait d’ailleurs rejoindre cette fiction littéraire lorsque la découverte des épaves d’Anti­ cythère (Grèce) et de Mahdia (Tunisie) est venue conforter le mythe. Fortuitement repérées sur des fonds de 40 mètres à 50 mètres par des pêcheurs d’éponges scaphandriers piedslourds, ces épaves ont en effet livré un vaste ensemble de statues en marbre et en bronze ainsi qu’un nombre non négligeable d’objets précieux relevant d’un transport d’œuvres d’art grecques par des navires probablement romains 3 (fig. 2 et 3). Les expéditions, conduites à Anticythère par la marine grecque, de l’automne 1900 à l’été 1901 (Chartier-Raymond 2015), et à Mahdia, de 1907 à 1913, sous la direction d’Alfred Merlin avec des scaphandriers pieds-lourds grecs (Merlin 1949), ont définitivement étayé l idée de trésors engloutis. Elles ont surtout confirmé combien les épaves s’étaient muées, par la vertu du temps qui passe, en trésors archéologiques dont l’importance scientifique excède et transcende de fort loin la seule vision mercantile qu’on pouvait précédemment en avoir. Désormais capables d’envoûter aussi bien le monde scientifique que le grand public, les épaves n’ont plus cessé depuis d’alimenter l’imaginaire des chercheurs comme celui des pilleurs, mais aussi des romanciers, des dessinateurs ou des 25 Trésors du fond des mers. Un patrimoine archéologique en danger Fig. 5. Statue de Mickey de Damien Hirst, exposition Treasures from the Wreck of the Unbelievable. metteurs en scène, dont la production croissante est venue à son tour nourrir l’illusion de galions regorgeant d’émeraudes et de pièces d’or ou de sous-marins nazis naufragés avec un chargement de lingots d’or. Des aventures tintinophiles du Secret de la Licorne (1941) et du Trésor de Rackham le Rouge (1944) au Trésor sous cloche de [...] Picsou (2014) (fig. 4), de L’Or à la Tonne de Robert Stenuit (1991) au Cimetière des bateaux sans nom d’Arturo Pérez-Reverte (2001), des aventures de 26 Popeye, dans Dizzy Divers (1935), aux blockbusters américains Bleu d’enfer (2005), Black Sea (2015) ou encore Way Down, braquage final (2021), toutes ces fictions ont de fait contribué à alimenter le dynamisme d’une pensée universelle qui voit dans les mondes sous-marins, fantasmés autant que redoutés, le lieu où des millions d’épaves chargées de trésors merveilleux attendent d’être mises au jour par des aventuriers téméraires. Les trésors sous-marins. Entre fantasmes et réalités En 2017, l’exposition internationale Treasures from the Wreck of the Unbelievable, offerte aux visiteurs du Palazzo Grassi et de la Punta della Dogana à Venise par l’artiste britannique Damien Hirst, alimentait d’ailleurs encore cette chimère du navire empli d’objets précieux (Geuna, Pinault et al. 2017). Il le faisait à travers la fabuleuse histoire ’une cargaison romaine mirifique, soi-disant découverte en 2008 à bord du navire Apistos (the Unbelievable ou l’Incroyable en français), dans les profondeurs de l’océan Indien, au large de l’Afrique de l’Est. Composé d’une impressionnante collection d’objets précieux, propriété de Cif Amotan II (anagramme de I am fiction), un esclave affranchi devenu notable d’Antioche sur l’Oronte (Turquie), ce chargement était prétendument destiné, avant de naufrager, à un temple dédié au soleil. Selon le synopsis de l’exposition, les sculptures en marbre de Carrare ou en bronze, les objets en lapis-lazuli, émeraude, jade, turquoise, malachite, or et argent... venaient d’être ramenés au jour par des plongeurs sous-marins. Cette fable magnifique où tout avait été imaginé, et dont les objets du chargement d’œuvres d’art ont été conçus et réalisés, le plus souvent en résine, par Damien Hirst et son équipe, présentait toute l’apparence d’une histoire authentique car les pièces exposées, apparemment couvertes de coquillages et de coraux, semblaient usées et patinées par le temps. Clin d’œil à la supercherie, un buste de Mickey couvert de corail (fig. 5), un buste féminin portant la mention de Mattel®, le fabricant de la poupée Barbie, une statue en bronze de Protée aux traits d’Elephant Man, etc. ponctuaient l’exposition de sorte à rappeler aux visiteurs séduits que cette présentation placée à l’interface de la fiction et de la réalité voulait surtout faire appel à son environnement onirique irrémédiablement peuplé de trésors engloutis. Si les romanciers d’autrefois l’ont rêvé, l’archéologie sousmarine l’a fait puisque le réel a désormais supplanté le fictif. On l’a vu avec les épaves d’Anticythère et de Mahdia. On le voit dans cette exposition qui présente l’éphèbe en bronze trouvé dans le cours de l’Hérault à Agde, un coffre jailli du Rhône, des trésors monétaires mis au jour à Vignale et à Lava en Corse, ou encore l’emblema de l’enlèvement d’Europe, les torques en or de Sotteville, le masque de Silène en bronze de l’épave Fourmigue C, les lingots d’or et la porcelaine chinoise du navire Prince de Conty... au sens commun tous Fig. 4. La chasse aux trésors sous-marin s est souvent associée, dans l’imaginaire, aux dangers que représentent les “préd ateurs monstrueux” du fond des mers et des océans comme la pieuvre géante dans Vingt Mille Lieues sous les mers. Ici, le requin dans Picsou. d’authentiques trésors. Rest e que la statue découverte à Agde demeure à ce jour le seul grand bronze hellénistique mis au jour dans les eaux françaises cependant que les trésors monétaires et les objets précieux ne font pas le quotidi en de l’archéologue aux pied s palmés. Mais qu’importe! Si cette rareté justifie plus que jamais qu’on protège tous ces mobiliers que le passé nous a légués, elle ne doit pas nous faire oublier que l’étonnante richesse des patrimoines immer gés ne se confond en rien avec leur seu le va leur marcha nde. Le trésor en vérité est ailleurs... Notes Michel L’Hour, « Archéologie sousmarine », dans D. Fievet. Le Temps d’un Bivouac, France Inter 20 août 2015. 2. Vingt Mille Lieues sous les mers a paru de mars 1869 à juin 1870 sous la forme d’un feuilleton du Magazine d’éducation et de récréation, de même que L’Île au trésor publié d’octobre 1881 à janvier 1882 sous le pseudonyme du Captain George North 1. dans l’hebdomadaire écossais pour enfant Young Folks. Écrit par Stevenson avec son beau-fils Lloyd Osbourne, Le Trafiquant d’épaves (The Wrecker) est également paru en feuilleton dans le Scribner’s Magazine, d’août 1891 à juillet 1892. 3. La cargaison de l’épave d’Anticythère était également constituée d’amphores, de monnaies, de verreries et d’autres objets datant du ive siècle au ier siècle av. J.-C. On y a également trouvé les fragments de la désormais célèbre machine d’Anticythère, premier calculateur astronomique de l’histoire. L’épave de Mahdia révéla quant à elle également la présence d’éléments de mobilier, d’objets du quotidien et plusieurs dizaines de colonnes en marbre. 27.
12,451
e5244a8a449336c26d4931b876af16a1_13
French-Science-Pile
Open Science
Various open science
2,014
Pêcheries
None
French
Spoken
7,893
15,682
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 SCIENCE ET TECHNOLOGIES • INFORMATION ET COMMUNICATIONS TAILLE DU SECTEUR TIC Part des TIC dans la valeur ajoutée et dans l’emploi Pourcentage Part des TIC dans la valeur ajoutée totale du secteur des entreprises 2011 ou dernière année disponible Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie 5.1 .. 3.8 4.5 5.1 .. 9.6 5.2 4.6 6.9 7.1 6.4 5.1 4.9 7.4 11.9 4.3 .. 4.9 8.1 7.0 .. 3.9 .. 5.1 4.1 4.1 5.9 5.7 7.4 4.7 6.8 7.4 .. .. 6.0 .. .. .. .. .. .. Différence en point de pourcentage 2000-11 Part de l'emploi lié aux TIC dans le secteur des entreprises 2011 ou dernière année disponible -0.4 .. -0.9 -0.2 .. .. -0.8 -0.1 -0.4 1.3 0.0 6.4 -0.7 1.5 0.7 1.0 -1.3 .. -0.1 -0.2 0.2 .. -0.3 .. -0.6 0.2 -0.2 1.6 0.6 -0.3 -0.4 0.1 0.7 .. .. -0.1 .. .. .. .. .. .. 3.9 .. 2.9 2.7 2.6 .. .. 4.4 2.7 4.4 3.8 6.4 3.3 1.8 4.9 5.2 .. .. 3.2 4.7 4.4 .. 3.3 .. 3.5 .. 1.9 3.3 3.2 4.3 3.4 4.5 5.4 .. .. 3.7 .. .. .. .. .. .. Différence en point de pourcentage 2000-11 -0.1 .. -0.2 -0.1 -0.4 .. .. -0.1 0.0 1.1 -0.9 6.4 -0.2 0.1 1.1 -0.8 .. .. 0.1 0.1 0.2 .. -0.9 .. -0.3 .. 0.3 0.4 0.6 -0.4 0.2 -0.9 0.2 .. .. 0.1 .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888933039464 Part des TIC en valeur ajoutée En pourcentage de la valeur ajoutée totale 2000 2011 14 12 10 8 6 4 2 0 1 2 http://dx.doi.org/10.1787/888933037051 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 161 SCIENCE ET TECHNOLOGIES • INFORMATION ET COMMUNICATIONS EXPORTATIONS D’ÉQUIPEMENTS LIÉS AUX TIC Les produits des technologies de l’information et des communications (TIC) comptent parmi les éléments les plus importants du commerce de marchandises et représentaient en 2011 un peu plus de 10 % des exportations mondiales. Définition Les données relatives aux exportations de biens TIC sont produites à l’aide du Système harmonisé (SH) de l’Organisation mondiale des douanes. L’OCDE a élaboré une définition des produits TIC (qui englobe les biens TIC) pour faciliter la construction d’indicateurs comparables au niveau international sur la consommation, l’investissement, le commerce et la production dans le domaine des TIC. La première définition des biens TIC a été énoncée en 2003, sur la base d’une liste de codes à 6 chiffres du SH 1996 et du SH 2002. La deuxième définition des produits TIC, adoptée en 2008, reposait sur la deuxième révision de la Classification centrale de produits (CPC Rév. 2), qui venait alors d’être publiée. Comparabilité Il est difficile de comparer les chiffres du commerce de biens TIC de l’OCDE pour 2007 et les années suivantes avec ceux des années antérieures, car la nouvelle classification SH adoptée en 2007 diffère radicalement des révisions antérieures. L’OCDE a mis au point des correspondances entre le SH 1996, le SH 2002 et le SH 2007 pour les biens TIC. Des efforts d’adaptation ont été nécessaires pour quantifier et faire entrer en ligne de compte l’impact de la fraude à la TVA dite « carrousel » observée au milieu des années 2000, qui a principalement touché les mouvements de biens TIC au sein de l’Union européenne. Les données des exportations de la Chine n’ont pas été corrigées pour tenir compte des réexportations et réimportations de Hong Kong, Chine. Les produits TIC sont définis par l’OCDE à l’aide de renvois à la CPC Rév. 2 et comprennent 99 sous-catégories de produits, 52 biens et 47 services classés dans quatre et six grandes catégories respectivement. Dans sa version actuelle, la définition des produits TIC comprend les biens TIC, les services TIC et la première classification des produits de la branche « contenu et média ». La définition de 2008 est plus restrictive que celle de 2003. La définition de 2008 se fonde sur des principes qui mettent l’accent sur l’usage auquel sont destinés les produits ou leur fonctionnalité. Sur la base des principes directeurs retenus pour la délimitation du secteur des TIC, les biens TIC ont été définis comme suit : ils doivent avoir pour objet de remplir une fonction de traitement ou de communication d’informations par des moyens électroniques, y compris leur transmission et leur affichage, ou utiliser un traitement informatique pour détecter, mesurer et/ou enregistrer des phénomènes physiques ou pour contrôler un processus physique. En appliquant cette définition des biens TIC, on obtient une liste de 95 codes du SH 2007. Sources En bref Les exportations de biens TIC sont étroitement liées au climat économique mondial. En conséquence de cette relation et de la chute des prix unitaires, la part des produits TIC dans les échanges de marchandises a reculé d’environ 5 points de pourcentage par rapport au pic atteint en 2000. En partie sous l’effet de la délocalisation de la production, la Chine a vu progresser sa part dans le total des exportations de produits TIC, qui est passée de moins de 5 % à 28 % et a ainsi décuplé en dollars actuels ; la Corée et le Mexique sont les seules économies de l’OCDE ayant réussi à maintenir leur part sur les marchés mondiaux. Ces tendances se sont accompagnées d’une mutation de la structure des échanges (et de la consommation) à l’échelle mondiale, marquée par le recul de la part des ordinateurs et périphériques et par la hausse des échanges de matériel de communication et de produits électroniques grand public. 162 • OCDE (2013), Statistiques du commerce international par produit, Éditions OCDE. Pour en savoir plus Publications analytiques • OCDE (2013), Perspectives des communications de l’OCDE, Éditions OCDE. • OCDE (2013), OECD Science, Technology and Industry Working Papers, Éditions OCDE. • OCDE (2012), L’économie internet : perspectives de l’OCDE, Éditions OCDE. • OCDE (2012), Perspectives des technologies de l’information, Éditions OCDE. Publications méthodologiques • OCDE (2011), OECD Guide to Measuring the Information Society 2011, Éditions OCDE. Sites Internet • Indicateurs clé des TIC de l’OCDE, www.oecd.org/sti/ indicateurstic. PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 SCIENCE ET TECHNOLOGIES • INFORMATION ET COMMUNICATIONS EXPORTATIONS D’ÉQUIPEMENTS LIÉS AUX TIC Exportations d’équipements liés aux TIC Millions de dollars des EU Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 48 717 1 727 3 941 10 825 20 967 30 59 426 3 654 5 355 967 156 670 10 781 31 939 466 7 231 27 697 2 6 668 10 675 108 795 889 34 771 1 104 158 38 160 1 290 1 492 388 1 334 50 419 169 15 487 3 080 1 024 .. 666 298 417 2 232 44 135 411 714 7 573 46 634 1 619 4 006 11 453 13 094 33 44 871 3 470 5 270 853 128 513 8 526 26 310 347 7 244 31 638 2 5 842 10 612 81 953 1 179 34 943 1 165 141 34 286 1 619 1 701 487 2 582 47 999 204 8 485 2 680 1 056 .. 570 817 442 2 329 53 221 284 858 6 095 48 665 1 456 4 533 9 734 10 163 36 53 501 4 691 5 000 579 111 448 8 913 23 629 325 8 804 27 490 2 2 681 9 239 82 919 945 33 340 955 249 28 584 1 956 1 711 492 5 145 46 747 220 9 232 2 013 1 603 .. 547 000 388 2 178 78 243 311 781 6 301 55 304 1 571 5 004 11 617 10 052 147 65 323 4 282 6 470 820 114 855 10 025 23 277 388 10 899 22 481 3 3 392 9 851 91 435 720 31 845 1 015 284 42 633 2 314 2 364 850 5 207 37 280 251 10 153 2 296 1 988 .. 586 396 462 2 106 121 365 324 957 5 687 72 388 1 713 5 908 12 868 11 846 141 84 555 4 662 7 014 1 126 124 097 10 411 26 864 512 15 694 23 482 2 3 815 11 455 104 339 859 37 003 1 169 351 53 610 2 819 2 777 1 698 7 907 37 736 275 13 634 2 742 2 933 .. 688 405 578 2 013 177 742 451 1 082 6 527 77 168 1 781 6 467 12 941 13 990 206 85 314 4 067 7 197 1 405 128 943 13 238 27 327 488 15 944 24 675 3 3 210 11 581 100 814 998 38 533 1 268 369 58 714 3 558 2 972 2 991 8 668 53 881 229 14 613 3 408 3 227 .. 730 188 587 3 701 234 086 423 1 113 6 944 82 809 1 788 6 710 12 181 14 878 263 86 167 4 158 7 347 1 310 140 314 13 242 31 586 630 17 841 24 121 5 3 527 11 376 103 139 840 46 916 1 471 374 62 306 5 519 3 673 5 267 12 330 84 834 291 15 115 3 015 3 178 .. 808 521 745 3 969 297 653 771 1 344 6 138 77 542 1 917 7 295 11 599 15 058 294 93 798 4 742 6 683 730 135 342 13 986 26 034 561 21 298 22 724 7 1 470 11 127 92 333 757 48 149 1 669 414 67 717 7 854 4 041 8 454 16 724 29 084 384 14 521 3 007 2 883 .. 750 198 846 2 668 353 476 777 .. 6 025 73 845 2 071 7 439 12 161 14 099 305 89 435 3 898 6 810 743 137 144 14 409 25 224 666 24 506 19 939 9 6 298 10 512 91 197 524 56 872 2 116 402 62 847 11 941 3 842 11 818 19 945 27 293 618 15 815 3 327 2 406 .. 760 476 805 3 135 390 843 780 .. 6 517 54 197 1 643 5 242 9 219 10 922 301 78 497 3 110 4 876 494 112 645 6 741 19 624 496 21 445 12 775 3 7 852 8 194 69 151 395 49 737 1 771 348 53 142 12 798 1 757 11 569 15 568 22 961 520 11 769 2 715 2 032 .. 614 509 677 2 312 351 825 836 6 099 6 921 64 134 1 989 5 704 9 464 10 645 264 98 433 3 510 5 385 1 019 133 920 4 461 22 448 542 24 228 8 839 3 7 177 9 614 81 522 399 60 037 1 869 372 60 999 15 096 1 939 12 237 19 493 23 732 532 15 385 3 194 2 092 .. 710 677 695 1 977 455 025 887 4 404 7 862 67 643 2 275 6 407 10 372 11 129 293 98 317 3 821 4 559 2 081 139 927 3 872 24 686 634 23 972 7 306 4 7 247 10 990 75 515 467 59 231 1 655 445 62 527 13 212 2 247 12 625 24 728 23 234 552 17 108 3 419 2 235 .. 724 735 762 1 783 503 784 1 226 6 507 7 845 61 850 2 241 6 112 9 108 10 249 265 93 260 3 680 3 609 1 977 138 651 2 899 22 606 592 17 872 6 762 8 7 387 9 339 72 781 374 62 414 1 278 419 55 840 12 609 1 972 13 281 22 361 20 080 484 12 438 3 247 2 645 .. 680 690 904 1 325 549 954 1 634 5 719 7 713 1 2 http://dx.doi.org/10.1787/888933039483 Les exportations de biens des TIC Millions de dollars, 2012 100 000 138 651 549 954 90 000 80 000 70 000 60 000 50 000 40 000 30 000 20 000 10 000 0 1 2 http://dx.doi.org/10.1787/888933037070 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 163 SCIENCE ET TECHNOLOGIES • INFORMATION ET COMMUNICATIONS ORDINATEURS, INTERNET ET TÉLÉCOMMUNICATIONS Les ordinateurs et les nouvelles technologies de communication sont de plus en plus présents dans les foyers des pays de l’OCDE, aussi bien dans ceux où les taux de pénétration sont déjà élevés que dans ceux qui accusent un retard en la matière. Définition L’accès à un ordinateur à usage domestique désigne le nombre de ménages ayant déclaré posséder au moins un ordinateur personnel en état de marche à domicile. Est également présenté le pourcentage des ménages déclarant avoir accès à l’internet. Dans presque tous les cas, l’accès s’effectue depuis un ordinateur personnel par ligne commutée, DSL, modem câble ou fibre optique. L’accès à l’internet exprimé en nombre d’abonnements au haut débit fixe (filaire) pour 100 habitants repose sur le nombre total d’abonnements à l’une des technologies ci-après permettant une vitesse de téléchargement supérieure à 256 kbits/s : DSL, modem câble, fibre jusqu’au domicile et autres technologies fixes (comme le haut débit via le réseau électrique ou des liaisons louées). d’âge; or, l’âge est un important déterminant de l’utilisation des TIC. Les indicateurs, selon qu’ils sont fondés sur les ménages ou les individus, produisent des chiffres différents, en ce qui concerne tant les niveaux d’utilisation que les taux de croissance, ce qui compliquent les comparaisons internationales. Les données concernant le nombre d’abonnés au haut débit fixe (filaire) pour 100 habitants dans les pays membres et non membres de l’OCDE sont recueillies suivant les définitions convenues et sont largement comparables. Les données présentées pour les pays non membres ont été collectées conformément aux définitions de l’OCDE et communiquées par l’Union internationale des télécommunications (UIT). Les définitions du haut débit employées par l’UIT sont harmonisées avec celles de l’OCDE. Dans les données recueillies avant 2009, les abonnements au haut débit fixe sans fil et par satellite étaient inclus dans les accès haut débit fixes (filaires). Depuis 2009, ce n’est plus le cas. Comparabilité L’OCDE s’est attaquée aux problèmes de comparabilité internationale en élaborant un questionnaire type sur l’utilisation des TIC par les ménages et les individus. Ce questionnaire se compose de modules consacrés à différents sujets, ce qui permet de l’étoffer en fonction des pratiques des utilisateurs et des préoccupations des pouvoirs publics. Les statistiques sur l’utilisation des TIC par les ménages peuvent soulever des problèmes de comparabilité internationale en raison de disparités structurelles dans la composition des ménages. Les statistiques sur l’utilisation des TIC par les individus peuvent quant à elles renvoyer à divers groupes En bref Dans la majorité des pays de l’OCDE, plus de 70 % des ménages avaient accès à des ordinateurs en 2012. L’Islande, les Pays-Bas, la Suède, le Danemark, le Luxembourg et la Norvège affichent un taux de pénétration supérieur à 90 %. La situation est similaire en ce qui concerne l’accès à l’internet. Dans environ deux tiers des pays de l’OCDE, plus de 70 % des ménages ont accès à l’internet, le taux de pénétration étant égal ou supérieur à 90 % en Corée, en Islande, aux Pays-Bas, au Luxembourg, en Norvège, au Danemark et en Suède. Dans la zone OCDE, on recensait 327.6 millions d’abonnements au haut débit fixe filaire en 2012. En glissement annuel, leur progression a marqué un léger déclin pour se situer au-dessus de 3.5 %, alors que plus de la moitié des pays de l’OCDE affichent un taux de 25 abonnements pour 100 habitants. En 2012, la Suisse occupe toujours la première place de l’OCDE, avec 42.0 abonnés au haut débit fixe filaire pour 100 habitants, suivie de près par les Pays-Bas (39.7) et le Danemark (38.9). La moyenne de l’OCDE se situe quant à elle à 26.3 abonnés pour 100 habitants. 164 Sources • OCDE (2013), Statistiques de l’OCDE sur les télécommunications et l’internet (Base de données). Pour en savoir plus Publications analytiques • OCDE (2013), Perspectives des communications de l’OCDE, Éditions OCDE. • OCDE (2012), L’économie internet : perspectives de l’OCDE, Éditions OCDE. • OCDE (2012), Perspectives des technologies de l’information, Éditions OCDE. Publications statistiques • Eurostat (2013), Enquête Eurostat sur l’usage des Technologies de l’information et des communications (TIC), Eurostat, Luxembourg. Bases de données en ligne • Union internationale des télécommunications (UIT) (2013), World Telecommunication/ICT Indicators Database. Sites Internet • Haut débit et télécoms - Indicateurs clé des TIC de l’OCDE, www.oecd.org/sti/indicateurstic. • Portail de l’OCDE sur le haut débit, www.oecd.org/sti/ict/ broadband. PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 SCIENCE ET TECHNOLOGIES • INFORMATION ET COMMUNICATIONS ORDINATEURS, INTERNET ET TÉLÉCOMMUNICATIONS Ménages ayant accès à un ordinateur, à Internet et au téléphone Pourcentage des ménages ayant accès à un ordinateur Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Pourcentage des ménages ayant accès à Internet Nombre de voies d'accès aux télécommunications de base pour 100 habitants 2006 2010 2011 2012 2000 2005 2010 2011 2012 2008 2009 2010 2011 2012 76.9 73.0 67.1 57.5 75.4 34.5 79.6 85.0 57.2 52.4 .. 71.1 .. 36.7 49.6 58.6 84.6 65.8 51.6 80.8 77.3 20.6 75.4 72.0 80.0 45.4 45.6 50.1 39.0 71.5 65.3 82.5 77.4 0.0 60.6 .. .. .. .. .. .. .. 85.7 82.6 76.2 76.7 82.7 43.9 81.8 88.0 68.7 69.3 .. 82.0 76.5 53.4 66.4 76.5 93.1 76.7 64.9 83.4 90.2 29.8 90.9 80.0 92.0 69.0 59.5 72.2 64.1 82.6 70.5 89.5 83.6 44.2 74.4 .. .. .. .. .. .. .. 86.9 .. 78.1 78.9 84.5 .. 81.9 90.4 71.5 71.4 75.6 85.1 78.2 57.2 69.7 80.6 94.7 78.2 66.2 80.0 91.7 30.0 91.0 .. 94.2 71.3 63.7 75.4 69.9 84.6 74.4 91.6 .. .. 76.7 .. .. .. .. .. .. .. 87.1 .. 81.3 80.3 .. 68.3 82.3 92.3 73.9 75.5 .. 87.6 81.0 56.8 71.4 82.8 95.5 .. 67.1 77.9 92.1 32.2 91.9 .. 94.5 73.4 66.1 78.8 67.3 87.2 76.1 92.3 .. .. 78.4 .. .. .. .. .. .. .. 16.4 32.0 19.0 .. 42.6 8.7 49.8 46.0 .. .. 41.5 30.0 11.9 .. .. 20.4 .. 19.8 18.8 .. .. .. .. .. 41.0 .. 8.0 .. .. 19.0 .. 48.2 .. 6.9 .. .. .. .. .. .. .. .. 61.6 60.0 46.7 50.2 64.3 19.7 92.7 74.9 35.5 38.7 .. 54.1 40.9 21.7 22.1 47.2 84.4 48.9 38.6 57.0 64.6 9.0 64.0 65.0 78.3 30.4 31.5 23.0 19.1 60.2 48.2 72.5 70.5 86.6 48.4 .. .. .. .. .. .. .. 82.5 78.9 72.9 72.7 78.4 30.0 96.8 86.1 59.1 67.8 71.1 80.5 73.6 46.4 60.5 71.7 92.0 68.1 59.0 67.1 90.3 22.2 89.8 75.0 90.9 63.4 53.7 67.5 60.5 79.6 68.1 88.3 80.7 41.6 70.1 .. .. .. .. .. .. .. 83.3 .. 75.4 76.5 80.5 .. 97.2 90.1 63.9 70.8 71.7 84.2 75.9 50.2 65.2 78.1 92.6 70.3 61.6 .. 90.6 23.3 92.2 .. 93.6 66.6 58.0 70.8 66.6 82.7 72.6 90.6 .. 42.9 73.2 .. .. .. .. .. .. .. 85.5 .. 79.3 77.7 80.5 60.5 97.3 92.0 67.9 75.0 71.7 86.8 80.0 53.6 68.6 81.1 94.6 70.3 62.9 .. 93.1 26.0 92.7 80.0 93.6 70.5 61.0 75.4 65.4 86.8 73.9 91.7 .. 47.2 76.1 .. .. .. .. .. .. .. 27.4 22.9 21.2 27.7 28.2 8.5 31.6 36.3 20.1 21.0 25.5 27.9 27.6 13.4 17.1 19.9 32.5 22.7 18.9 23.5 29.4 7.1 33.7 21.4 35.6 10.5 15.9 11.4 17.0 28.1 20.8 31.5 32.7 8.1 .. 22.0 0.9 5.1 6.2 6.5 0.4 0.4 31.9 24.0 22.8 30.8 30.7 10.4 34.8 37.2 23.4 23.3 26.7 28.6 32.8 19.9 19.6 20.6 33.7 23.9 21.6 26.6 30.7 10.3 34.5 24.9 38.1 13.8 19.8 12.8 14.6 31.2 22.8 31.9 38.2 9.7 .. 24.5 1.5 6.8 9.4 11.0 0.9 1.0 33.2 24.1 24.3 32.1 31.7 11.6 35.9 37.6 24.5 24.8 27.7 29.5 34.7 21.8 20.9 21.7 34.5 24.2 22.1 27.3 31.5 10.9 35.2 26.6 38.9 14.9 21.1 13.8 15.8 32.8 23.8 32.0 40.3 10.3 .. 25.5 1.8 8.6 11.6 12.2 1.1 1.1 34.1 25.2 25.0 33.3 32.4 12.4 36.5 38.9 24.6 24.5 29.0 30.4 36.4 23.7 21.8 22.6 34.8 24.7 22.1 27.7 32.1 11.7 36.2 28.6 39.7 15.7 22.5 14.8 16.6 34.2 24.4 32.2 42.0 10.4 .. 26.3 2.2 9.2 13.0 14.5 1.1 1.2 34.5 25.6 25.6 34.0 32.8 12.8 37.1 39.7 25.3 24.8 29.3 30.5 37.0 24.7 22.3 23.3 35.1 25.0 22.4 27.8 32.6 11.9 36.6 29.5 40.0 15.4 23.2 15.2 17.0 34.9 24.8 32.3 43.8 10.7 .. 26.7 .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888933039502 Ménages ayant accès à un ordinateur En pourcentage de tous les ménages 2012 ou dernière année disponible 2006 100 90 80 70 60 50 40 30 20 10 0 1 2 http://dx.doi.org/10.1787/888933037089 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 165 ENVIRONNEMENT EAU ET RESSOURCES NATURELLES CONSOMMATION D’EAU PÊCHERIES DÉCHETS MUNICIPAUX AIR ET CLIMAT ÉMISSIONS DE DIOXYDE DE CARBONE ÉMISSIONS DE SOUFRE ET D’AZOTE ÉMISSIONS DE GAZ À EFFET DE SERRE VIABILITÉ ÉCOLOGIQUE DANS LES ZONES MÉTROPOLITAINES ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES CONSOMMATION D’EAU Eau et ressources naturelles Les ressources en eau douce ont une grande importance pour l’environnement et l’économie. Leur répartition varie beaucoup entre les pays et à l’intérieur d’un même pays. Dans les régions arides, elles sont parfois si limitées que la demande ne peut être satisfaite que grâce à des prélèvements incompatibles, du point de vue quantitatif, avec une exploitation durable. Les prélèvements d’eau douce, en particulier ceux destinés à l’alimentation des réseaux de distribution, à l’irrigation, à la production industrielle et au refroidissement des centrales électriques, exercent une forte pression sur les ressources en eau et ont des incidences importantes sur leur état quantitatif et qualitatif. Les principales préoccupations sont liées à l’utilisation inefficiente de l’eau, et à ses conséquences environnementales et socio-économiques. l’OCDE, qui a procédé à des interpolations linéaires pour calculer les valeurs manquantes. Ils ne comprennent pas le Chili. Les données relatives au Royaume-Uni concernent uniquement l’Angleterre et le Pays de Galles. Il est à noter qu’il existe des ruptures dans les séries temporelles des pays suivants : Allemagne, Estonie, France, Hongrie, Irlande, Luxembourg, Mexique, Norvège, République tchèque, Royaume-Uni, Slovénie et Turquie. Définition Il y a prélèvement dès lors que de l’eau douce est extraite d’une source souterraine ou de surface, de manière permanente ou temporaire, et transportée sur son lieu d’usage. Si l’eau est restituée à une source de surface, le prélèvement de cette même eau par un autre utilisateur situé en aval est compté à nouveau dans le calcul des prélèvements totaux, ce qui peut conduire à un double comptage. Les eaux d’exhaure et de drainage sont incluses dans le calcul des prélèvements. En revanche, l’eau utilisée dans la production d’hydroélectricité correspond à une exploitation in situ et n’est normalement pas prise en compte. Comparabilité Les définitions et les méthodes d’estimation employées pour calculer les données sur les prélèvements et la distribution d’eau peuvent être très différentes selon les pays et varier dans le temps. En général, la disponibilité et la qualité des données sont meilleures en ce qui concerne les prélèvements destinés aux réseaux de distribution, qui représentent à peu près 15 % de l’eau prélevée dans les pays membres de l’OCDE. Les totaux OCDE sont des estimations établies par le Secrétariat de En bref Dans la plupart des pays de l’OCDE, les prélèvements ont augmenté dans les années 60 et 70 sous l’effet de la hausse de la demande d’eau de l’agriculture et du secteur de l’énergie. Depuis les années 80, certains pays ont toutefois pu stabiliser leurs prélèvements à la faveur de plusieurs évolutions : recours à des techniques d’irrigation plus efficientes, déclin de certaines industries grandes consommatrices d’eau (mines et sidérurg ie, par exemple), développement des technologies de production propre et réduction des fuites au niveau des canalisations. Plus récemment, cette stabilisation reflète en partie les conséquences des sécheresses (alors que la croissance démographique continue d’entraîner une augmentation du volume d’eau distribué par les réseaux publics). Au niveau mondial, on estime que la demande en eau a augmenté plus de deux fois plus vite que la population au cours du siècle passé, le plus gros consommateur étant l’agriculture. 168 Sources • OCDE (2012), Statistiques sur l’eau de l’OCDE, Statistiques de l’OCDE sur l’environnement (base de données). Pour en savoir plus Publications analytiques • Love, P. (2013), Water, Les essentiels de l’OCDE, Éditions OCDE. • OCDE (2013), Managing Water for Green Growth, Études de l’OCDE sur la croissance verte, Éditions OCDE. • OCDE (2013), Compendium des Indicateurs AgroEnvironnementaux de l’OCDE, Éditions OCDE. • OCDE (2013), Études de l’OCDE sur l’eau, Éditions OCDE. • OCDE (2013), Les mécanismes de financement pour la biodiversité, Éditions OCDE. • OCDE (2013), Water and Green Growth, Études de l’OCDE sur la croissance verte, Éditions OCDE. • OCDE (2012), Perspectives de l’environnement de l’OCDE, Éditions OCDE. • OCDE (2009), De l’eau pour tous : Perspectives de l’OCDE sur la tarification et le financement, Études de l’OCDE sur l’eau, Éditions OCDE. Sites Internet • Indicateurs, modélisation et perspectives sur l’environnement, www.oecd.org/fr/env/indicateursmodelisation-perspectives/. • Gestion de l’eau : comprendre les enjeuxwww.oecd.org/eau. PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES CONSOMMATION D’EAU Prélèvements d’eau Prélèvements totaux Millions m3 Prélèvements d'eau par habitant m3 per habitant Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie 1985 1990 1995 2000 2005 2011 ou dernière année disponible 1985 1990 1995 2000 2005 530 920 470 .. 1 620 .. 460 330 1 200 .. 1 950 820 630 550 590 .. 460 .. .. 720 180 .. 490 .. 640 440 200 400 360 230 .. 360 410 390 .. 970 .. .. .. .. .. .. 600 .. 490 .. 1 610 .. 480 250 1 180 2 050 1 850 470 660 770 610 .. 660 380 .. 720 160 .. .. .. 530 400 730 400 350 240 .. 350 400 510 .. 950 .. .. .. .. .. .. 530 1 330 430 810 1 610 .. 520 170 850 1 240 1 750 510 710 730 580 330 620 330 .. 710 140 800 550 .. 420 340 .. 260 270 190 .. 310 370 560 .. 920 .. .. .. .. .. .. 460 1 140 .. 740 .. .. 560 140 910 1 070 1 710 450 550 910 650 .. 580 270 740 690 140 720 530 820 560 310 1 100 220 190 210 450 300 360 680 .. 900 .. .. .. .. .. .. 430 950 .. 610 1 300 .. 610 120 820 1 170 1 630 1 250 550 870 490 190 560 250 .. 650 .. 740 620 1 170 700 300 870 170 190 190 460 290 340 650 .. 880 .. .. .. .. .. .. 400 630 .. 570 1 150 .. .. 120 730 1 400 .. .. 530 850 540 170 .. 180 910 640 90 750 640 1 190 640 310 870 110 180 140 410 290 .. 640 .. 840 .. .. .. .. .. .. 41 216 14 600 3 580 .. 42 342 .. 18 580 1 705 46 250 .. 464 737 4 000 34 887 5 496 6 267 .. 112 .. .. 87 209 67 .. 2 025 .. 9 349 16 409 2 003 2 061 3 679 11 533 .. 2 970 2 646 19 400 .. 976 118 .. .. .. .. .. .. 47 873 .. 3 807 .. 43 888 .. 20 570 1 261 45 845 3 215 462 250 2 347 37 687 7 862 6 293 .. 167 1 780 .. 88 906 59 .. .. .. 7 984 15 164 7 288 2 116 3 623 12 052 .. 2 968 2 665 28 073 .. 997 679 .. .. .. .. .. .. 43 374 24 071 3 449 8 251 47 250 .. 23 670 887 33 288 1 780 466 118 2 586 40 671 7 788 5 976 1 176 165 1 812 .. 88 881 57 73 672 2 420 .. 6 507 12 924 .. 1 386 2 743 9 549 .. 2 725 2 571 33 482 .. 1 002 960 .. .. .. .. .. .. 38 006 22 196 .. 7 536 .. .. 26 020 726 36 525 1 471 482 558 2 346 32 715 9 924 6 621 .. 163 1 727 41 982 86 972 60 70 428 2 348 3 140 8 915 11 994 11 136 1 171 1 918 11 174 899 2 688 2 564 43 650 .. 1 020 275 .. .. .. .. .. .. 35 557 19 336 .. 6 389 41 955 .. 29 198 644 35 664 1 578 482 972 6 562 33 872 9 654 4 929 799 165 1 728 .. 83 427 .. 76 508 2 864 4 908 11 453 11 522 9 151 907 1 949 10 323 924 2 631 2 507 44 684 .. 1 025 868 .. .. .. .. .. .. 2011 ou dernière année disponible 32 716 14 060 .. 6 176 38 801 .. .. 660 33 544 1 874 .. .. 33 110 9 539 5 432 730 .. 1 340 53 751 81 454 48 81 588 3 026 5 201 10 668 11 911 9 151 593 1 887 7 682 850 2 690 .. 46 956 .. 1 021 801 .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888933039521 Prélèvements d’eau m3 par habitant, 2011 ou dernière année disponible 1 600 1 400 1 200 1 000 800 600 400 200 0 1 2 http://dx.doi.org/10.1787/888933037108 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 169 ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES PÊCHERIES La pêche contribue de façon notable à la durabilité des revenus, aux possibilités d’emploi et aux apports globaux de protéines. Cependant, la surpêche de certaines espèces dans certaines régions fait planer une menace d’épuisement sur les stocks. Dans certains pays, dont au moins deux pays de l’OCDE – le Japon et l’Islande – le poisson est la principale source de protéines animales. Définition Les chiffres concernent les quantités de poissons marins débarquées, et de poissons et crustacés provenant des eaux continentales et élevés en réservoirs d’eau douce et d’eau de mer. Les prises de poissons marins pour chaque pays comprennent les poissons débarqués dans les ports étrangers et nationaux. Cet indicateur distingue les catégories pêche maritime et aquaculture en raison de leurs systèmes de production et de leurs taux de croissance qui diffèrent. Comparabilité Les séries chronologiques présentées sont relativement complètes et cohérentes d’une année sur l’autre, mais certaines variations temporelles peuvent refléter des modifications des systèmes de notification nationaux. Dans un cas, les données indiquées sont des estimations du Secrétariat de l’OCDE. Sources En bref Les débarquements des pêches de capture marines dans les pays de l’OCDE ont été d’environ 25 millions de tonnes en 2008, ce qui représente en gros 28 % de la production mondiale des pêches de capture marines. Les prises des pays de l’OCDE sont orientées à la baisse depuis la fin des années 80. Cette décrue régulière s’explique par l’évolution de la demande et des prix du marché, ainsi que par la nécessité de gérer les stocks de manière à obtenir un rendement maximum soutenable, c’est-à-dire d’assurer une utilisation durable des ressources de la mer. La croissance de la production aquacole des pays de l’OCDE a été relativement lente, de l’ordre de 3 % par an. En 2008, les pays de l’OCDE ont été à l’origine de 10 % environ de la production aquacole mondiale, les plus gros producteurs étant la Corée, le Japon, le Chili et la Norvège. L’aquaculture est considérée comme un élément essentiel d’une croissance verte à l’avenir, notamment dans de nombreuses économies émergentes, car elle peut permettre tout à la fois d’accroître la production alimentaire et d’alléger les pressions qui pèsent sur les ressources halieutiques. • OCDE (2012), Examen des pêcheries dans les pays de l’OCDE : Politiques et statistiques de base, Éditions OCDE. Pour en savoir plus Publications analytiques • OCDE (2012), Redressement des pêches, Le cap à suivre, Éditions OCDE. • OCDE (2012), La certification dans les secteurs halieutique et aquacole, Éditions OCDE. • OCDE (2011), The Economics of Adapting Fisheries to Climate Change, Éditions OCDE. • OCDE (2010), Advancing the Aquaculture Agenda, Workshop Proceedings, Éditions OCDE. • OCDE (2010), Globalisation in Fisheries and Aquaculture, Opportunities and Challenges, Éditions OCDE. • OCDE (2007), Structural Change in Fisheries: Dealing with the Human Dimension, Éditions OCDE. • OCDE (2006), Les aides financières au secteur de la pêche: Leurs répercussions sur le développement durable, Éditions OCDE. Publications statistiques • OCDE (2009), Réduction de la capacité de pêche: Bonnes pratiques en matière de plans de sortie de flotte, Éditions OCDE. Sites Internet • Pêcheries, www.oecd.org/pecheries. 170 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES PÊCHERIES Pêche en mer et production de l’aquaculture Milliers de tonnes Débarquements des produits de la pêche dans les ports domestiques et étrangers Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Aquaculture 2000 2005 2009 2010 2011 2012 2000 2005 2009 2010 2011 2012 194 185 .. 27 1 008 4 032 2 090 1 524 1 002 101 4 245 92 682 93 .. 291 1 930 6 387 5 092 .. 1 193 2 894 536 312 200 172 .. .. 748 2 341 .. 461 .. 29 654 .. .. .. 4 289 .. .. 247 236 .. 22 1 079 4 462 1 829 899 717 90 4 463 77 606 92 .. 282 1 411 4 268 4 511 .. 1 203 2 546 633 547 136 172 .. .. 670 1 239 .. 523 .. 27 730 .. .. .. .. .. .. 211 172 .. 19 960 3 379 1 839 770 728 29 0 117 446 83 .. 227 1 151 3 242 4 200 .. 1 483 2 697 280 380 112 191 .. .. 584 1 197 .. 430 .. 20 928 .. .. .. .. .. .. 210 173 .. 20 920 3 048 1 725 820 768 92 0 121 .. 70 .. 293 .. .. 225 4 172 .. 1 357 2 838 278 266 115 201 .. .. 608 1 204 .. 446 .. 18 969 .. .. .. .. .. .. 207 164 .. 20 858 3 466 1 746 708 859 78 5 235 119 .. 64 .. .. .. .. 212 3 859 .. 1 398 2 451 286 263 116 224 .. .. 600 1 169 .. 478 .. 23 580 .. .. .. .. .. .. 224 158 .. 22 800 2 675 .. 488 812 65 .. .. .. 61 .. .. 1 449 .. .. 3 729 .. 1 433 2 280 290 338 .. 186 .. .. 619 .. 103 .. .. .. 15 730 .. .. .. .. .. .. 45 37 .. 2 127 425 667 44 312 .. 373 15 267 88 .. 41 4 20 228 1 292 .. 46 492 87 92 32 8 .. 19 144 .. 6 .. 79 .. 4 989 .. .. .. 205 .. .. 46 47 .. .. 154 739 1 057 40 273 .. 358 14 238 110 .. .. 8 22 234 1 254 .. 102 662 105 70 38 7 1 20 165 .. 7 .. 118 .. 5 888 .. .. .. .. .. .. 39 70 .. .. 143 758 1 332 42 268 .. .. 14 236 126 14 47 5 .. 180 1 243 .. 285 962 105 73 36 8 1 20 194 .. 10 15 159 .. 6 387 .. .. .. .. .. .. 41 72 .. .. 150 713 1 376 40 254 .. .. 12 0 123 14 0 4 .. 189 1 151 .. 263 1 020 111 89 28 8 .. 20 200 .. 12 16 167 .. 6 070 .. .. .. .. .. .. 60 73 .. .. 149 970 1 500 40 .. .. .. 11 .. 121 16 .. 4 .. .. 908 .. 263 1 144 117 41 31 9 .. 21 176 .. 14 17 189 .. 5 873 .. .. .. .. .. .. .. 82 .. .. 0 1 105 .. .. .. .. .. .. .. .. 15 .. 7 .. .. 1 077 .. 254 1 326 100 .. .. .. .. 21 180 .. 15 18 .. .. 4 200 .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888933039540 Part de l’aquaculture dans la production totale de poissons Pourcentage, moyenne 2009-11 60 50 40 30 20 10 0 1 2 http://dx.doi.org/10.1787/888933037127 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 171 ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES DÉCHETS MUNICIPAUX La quantité de déchets municipaux produite dans un pays est fonction du taux d’urbanisation, des types et des modes de consommation, des revenus des ménages et des modes de vie. Bien que les déchets municipaux ne constituent qu’une partie des déchets produits, leur gestion et leur traitement absorbent souvent plus du tiers des efforts financiers consentis par le secteur public pour lutter contre la pollution. Les principales préoccupations environnementales sont liées aux répercussions potentielles d’une gestion inadaptée des déchets sur la santé humaine et sur l’environnement (contamination des sols et de l’eau, qualité de l’air, utilisation des terres et paysages). Définition Les déchets municipaux sont les déchets collectés et traités par ou pour les communes. Ils comprennent les déchets des ménages, y compris les encombrants, les déchets assimilés produits par les activités commerciales, les bureaux, les institutions et les petites entreprises, ainsi que les déchets d’entretien des jardins et des espaces verts, les déchets de nettoiement de la voirie, le contenu des poubelles publiques et les déchets des marchés s’ils sont traités comme des déchets ménagers. La définition exclut les déchets issus de l’assainissement des eaux usées urbaines, ainsi que les déchets des activités de construction et de démolition. relles des pays suivants : Corée, Danemark, Estonie, Hongrie, Irlande, Italie, Luxembourg, Mexique, Norvège, NouvelleZélande, Pologne, République slovaque, République tchèque, Slovénie et Turquie. Les principaux problèmes de comparabilité tiennent à la prise en compte des déchets produits par les activités commerciales, ainsi que des collectes sélectives réalisées par des entreprises privées. Dans certains cas, l’année de référence renvoie à l’année la plus proche pour laquelle des données sont disponibles. Les données relatives à la Nouvelle-Zélande concernent uniquement les quantités mises en décharge. Celles pour le Portugal comprennent les Açores et Madère. Celles relatives à la Chine ne comprennent pas les déchets produits dans les zones rurales. Les quantités exprimées en kilogrammes de déchets municipaux par habitant et par an, soit « l’intensité de production de déchets », sont un indicateur général de la pression potentielle sur l’environnement et sur la santé. Il convient de les compléter avec des informations sur les pratiques et les coûts de gestion des déchets, ainsi que sur les niveaux et modes de consommation. Comparabilité La définition des déchets municipaux et les méthodes d’enquête employées varient d’un pays à l’autre et dans le temps. On constate ainsi des ruptures dans les séries tempo- En bref En forte augmentation depuis 1980, la quantité de déchets municipaux produite dans la zone de l’OCDE a dépassé d’après les estimations 660 millions de tonnes en 2011 (530 kg par habitant). Dans la plupart des pays pour lesquels des données sont disponibles, la prospérité accrue liée à la croissance économique et l’évolution des modes de consommation ont tendance à entraîner une hausse de la production de déchets par habitant. Sur les vingt dernières années, la production de déchets a toutefois progressé plus lentement que les dépenses de consommation finale privée et que le PIB, avec un ralentissement depuis quelques années. La quantité de déchets municipaux destinés à l’élimination finale et leur composition sont fonction des pratiques des pays en matière de gestion des déchets. Malgré des progrès dans ces pratiques, seuls quelques pays ont réussi à réduire la quantité de déchets solides qui doit être éliminée. 172 Sources • OCDE (2013), Environment at a Glance: OECD Environmental Indicators, Éditions OCDE. • OCDE (2012), Perspectives de l’environnement de l’OCDE, Éditions OCDE. • OCDE (2013), Statistiques de l’OCDE sur les déchets, Statistiques de l’OCDE sur l’environnement (base de données). Pour en savoir plus Publications analytiques • OCDE (2013), Vers des comportements plus environnementaux : Vue d’ensemble de l’enquête 2011, Études de l’OCDE sur la politique de l’environnement et le comportement des ménages, Éditions OCDE. • OCDE (2008), "Conducting sustainability assessments", OECD Sustainable Development Studies, Éditions OCDE. • OCDE (2004), Addressing the Economics of Waste, Éditions OCDE. • Strange, T. et A. Bayley (2008), Le développement durable, À la croisée de l’économie, de la société et de l’environnement, Les essentiels de l’OCDE, Éditions OCDE. Publications méthodologiques • OCDE (2009), Guidance Manual for the Control of Transboundary Movements of Recoverable Wastes, Éditions OCDE. • OCDE (2008), Manuel d’application pour la gestion écologique des déchets, Éditions OCDE. Sites Internet • Productivité des ressources et déchets, www.oecd.org/env/ dechets. PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 ENVIRONNEMENT • EAU ET RESSOURCES NATURELLES DÉCHETS MUNICIPAUX Production de déchets municipaux Intensité de la production Kg par habitant Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Quantité totale produite Millers de tonnes 1980 1985 1990 1995 2000 2005 2011 ou dernière année disponible 2011 ou dernière année disponible .. 680 .. 280 .. 200 .. 400 .. .. 610 .. .. 260 .. 190 .. .. 250 380 350 .. 550 650 490 280 200 .. .. .. .. 300 440 270 .. .. .. .. .. .. .. .. .. .. .. 310 .. 230 510 480 .. .. 630 .. .. 300 .. 310 .. .. 270 350 360 .. 590 .. 480 300 .. 360 .. .. .. 320 530 360 .. .. .. .. .. .. .. .. 630 690 420 340 .. 250 710 .. .. .. 760 .. 450 300 530 .. .. .. 350 410 580 250 550 990 500 290 300 300 .. 470 .. 370 610 360 .. 500 .. .. .. .. .. .. 620 .. 430 450 .. 280 390 520 480 370 740 410 480 300 460 510 430 .. 450 420 580 330 640 870 550 290 390 300 300 500 600 400 600 460 .. 520 .. .. .. .. .. .. 640 690 530 480 .. 330 360 610 610 460 780 500 510 410 450 600 460 630 510 430 650 310 620 770 610 320 440 320 330 580 510 430 660 480 .. 560 .. .. .. .. .. .. 560 .. 570 480 .. 350 370 660 590 440 780 480 530 440 460 730 520 590 540 410 680 340 430 780 620 320 450 270 290 590 490 480 660 460 .. 560 .. .. .. .. .. .. 600 640 560 470 .. 380 380 720 500 300 730 500 530 520 380 620 550 610 540 350 700 360 490 560 600 320 490 310 320 530 410 460 690 410 .. 530 .. .. .. .. .. .. 49 237 14 035 4 678 5 125 .. 6 517 18 581 4 001 22 997 399 226 669 2 719 34 336 5 917 3 809 2 846 177 4 759 32 479 45 359 356 41 063 2 392 2 461 9 947 12 129 5 139 1 679 3 358 32 450 844 4 374 5 478 29 733 .. 661 458 .. .. 157 340 69 257 .. .. 1 2 http://dx.doi.org/10.1787/888933039559 Production de déchets municipaux kg par habitant, 2011 ou dernière année disponible 800 700 600 500 400 300 200 100 0 1 2 http://dx.doi.org/10.1787/888933037146 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 173 ENVIRONNEMENT • AIR ET CLIMAT ÉMISSIONS DE DIOXYDE DE CARBONE Air et climat Le dioxyde de carbone (CO2) constitue la majeure partie des gaz à effet de serre d’origine anthropique. L’émission dans l’atmosphère de gaz à effet de serre produits par les activités humaines perturbe l’équilibre radiatif de la Terre (c’est-à-dire l’équilibre entre l’énergie solaire que la terre absorbe et réfléchit dans l’espace). Cela entraîne une élévation de la température à la surface du globe et, par voie de conséquence, a des répercussions sur le climat, le niveau des océans et l’agriculture mondiale. Définition L’indicateur présente les émissions de CO2 résultant de la combustion de pétrole, de charbon, de gaz naturel et de déchets à des fins énergétiques. La déforestation et certaines activités industrielles comme la fabrication du ciment provoquent également des émissions de dioxyde de carbone dans l’atmosphère, mais celles-ci sont peu importantes en proportion du En bref Les émissions mondiales de dioxyde de carbone ont plus que doublé depuis 1971, progressant en moyenne de 2 % par an. En 1971, 67 % du total étaient imputables aux pays qui sont membres de l’OCDE aujourd’hui. En raison de l’augmentation rapide des émissions des pays en développement, la part imputable à l’OCDE est tombée à 39 % en 2011. C’est en Asie que les hausses observées dans les pays non membres ont été de loin les plus fortes : les émissions de CO2 de la Chine ont ainsi augmenté en moyenne de 6 % par an entre 1971 et 2011. Du fait de sa consommation de charbon, la Chine a contribué à hauteur de 7.2 milliards de tonnes à l’accroissement du volume des émissions au cours des 40 dernières années.
31,435
79ef7b95d7932bc155991d65c993dcd5_11
French-Science-Pile
Open Science
Various open science
2,006
Dépenses publiques totales d'éducation
None
French
Spoken
6,593
12,582
Les symboles représentant les données manquantes sont présentés dans le Guide du lecteur. StatLink : http://dx.doi.org/10.1787/215474611731 Regards sur l’éducation © OCDE 2006 153 A9 chapitre A Les résultats des établissements d’enseignement et l’impact de l’apprentissage Tableau A9.4c. Répartition des femmes âgées de 25 à 64 ans selon le niveau des revenus du travail et le niveau de formation (sur l’année indiquée) A9 2001 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Belgique 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Canada 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Rép. tchèque 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Danemark 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Finlande 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus 2004 Inférieur au 2e cycle du secondaire France 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Allemagne 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). Les symboles représentant les données manquantes sont présentés dans le Guide du lecteur. StatLink : http://dx.doi.org/10.1787/215474611731 154 Regards sur l’éducation © OCDE 2006 % 37.0 27.2 23.1 12.7 26.9 26.3 11.1 2.7 4.7 11.5 52.3 37.5 30.2 20.8 33.6 22.5 8.3 2.0 0.4 8.6 52.9 30.0 24.0 19.0 34.4 29.6 27.2 15.9 14.1 22.5 29.5 16.0 5.0 6.3 16.8 43.0 36.6 26.9 21.2 32.6 Supérieur à la moitié du niveau médian, mais inférieur ou égal au niveau médian Supérieur au niveau médian, mais inférieur ou égal à 1,5 fois le niveau médian Supérieur à 1,5 fois le niveau médian, mais inférieur ou égal à 2.0 fois le niveau médian % 47.3 46.3 37.7 25.4 40.4 66.4 66.8 47.2 27.2 55.7 35.5 31.6 28.7 19.3 28.5 69.7 58.9 43.7 14.3 53.9 28.4 33.4 22.9 17.8 27.3 46.4 47.1 33.7 22.3 39.1 53.3 52.8 34.6 21.9 45.3 45.1 37.3 42.2 24.4 35.6 % 12.9 21.5 27.8 33.3 21.8 6.6 20.4 45.5 46.3 27.6 10.5 20.9 22.9 22.7 20.6 7.1 26.9 40.1 54.4 28.6 16.2 30.5 41.1 44.3 29.9 20.7 22.5 41.9 32.2 28.5 14.2 25.1 42.2 39.3 26.6 10.9 21.8 22.6 30.3 22.7 % 2.0 3.2 7.8 19.1 7.3 0.5 1.3 4.1 17.5 4.2 1.7 6.2 11.7 16.0 9.4 0.4 4.1 9.4 17.4 5.6 1.9 4.7 9.3 13.1 6.1 2.5 2.4 6.2 19.3 6.6 2.2 4.6 14.6 18.8 7.6 0.6 3.1 6.3 16.7 6.3 Tous niveaux de revenus confondus Australie Supérieur à 2.0 fois le revenu médian Pays membres de l’OCDE Inférieur ou égal à la moitié du niveau médian Niveau des revenus du travail % 0.8 1.8 3.7 9.5 3.6 0.2 0.4 0.5 4.3 0.9 0.0 3.7 6.4 21.2 7.9 0.2 1.8 4.8 13.5 3.3 0.6 1.4 2.7 5.8 2.3 0.8 0.8 2.2 12.1 3.3 0.8 1.5 3.5 13.8 3.6 0.4 1.3 2.1 7.4 2.7 % 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 chapitre A Le rendement de l’éducation : niveau de formation et revenus du travail – INDICATEUR A9 Tableau A9.4c. (suite-1) Répartition des femmes âgées de 25 à 64 ans selon le niveau des revenus du travail et le niveau de formation (sur l’année indiquée) 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Irlande 2002 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Italie 2002 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Corée 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Luxembourg 2002 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Pays-Bas 2002 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire tous niveaux confondus Tous niveaux de formation confondus Nelle-Zélande 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus % 13.7 10.3 5.7 1.5 8.8 57.0 28.7 19.2 13.2 33.4 32.6 15.3 m 9.8 20.4 48.4 33.7 21.4 12.8 33.0 22.4 4.1 0.9 0.0 6.3 54.4 31.8 13.2 32.2 37.7 29.0 13.0 24.7 26.9 Supérieur à la moitié du niveau médian, mais inférieur ou égal au niveau médian Supérieur au niveau médian, mais inférieur ou égal à 1,5 fois le niveau médian Supérieur à 1,5 fois le niveau médian, mais inférieur ou égal à 2.0 fois le niveau médian % 71.5 46.3 23.8 5.9 41.3 35.0 44.2 39.1 18.6 34.3 41.8 39.9 m 26.7 38.4 41.1 45.5 47.4 30.0 41.3 58.9 53.4 38.0 22.3 48.3 38.0 48.7 33.1 41.9 47.2 40.1 24.7 31.1 37.0 % 12.4 27.1 34.9 28.2 24.2 7.4 20.1 28.4 23.6 17.8 16.8 30.1 m 34.2 26.1 7.2 13.4 18.6 33.6 15.9 14.4 30.2 42.0 42.0 30.8 6.7 16.7 34.8 19.2 11.9 22.1 33.1 31.3 23.8 % 1.7 9.8 16.1 30.0 13.3 0.6 4.5 7.9 26.7 8.7 3.9 8.6 m 9.6 7.1 0.6 4.7 8.2 13.7 5.5 3.1 9.5 13.8 21.3 10.4 0.8 2.4 12.2 4.7 2.5 6.3 18.5 9.0 8.3 Tous niveaux de revenus confondus Hongrie Supérieur à 2.0 fois le revenu médian Pays membres de l’OCDE Inférieur ou égal à la moitié du niveau médian Niveau des revenus du travail % 0.8 6.5 19.5 34.4 12.5 0.0 2.5 5.4 18.0 5.7 4.9 6.0 m 19.6 7.8 2.6 2.7 4.4 10.0 4.3 1.2 2.7 5.3 14.4 4.2 0.2 0.4 6.8 2.1 0.7 2.6 10.7 3.9 4.0 % 100 100 100 100 100 100 100 100 100 100 100 100 m 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 Source : OCDE. Les symboles représentant les données manquantes sont présentés dans le Guide du lecteur. StatLink : http://dx.doi.org/10.1787/215474611731 Regards sur l’éducation © OCDE 2006 155 A9 chapitre A Les résultats des établissements d’enseignement et l’impact de l’apprentissage Tableau A9.4c. (suite-2) Répartition des femmes âgées de 25 à 64 ans selon le niveau des revenus du travail et le niveau de formation (sur l’année indiquée) A9 2003 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Pologne 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Espagne 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus 2003 Inférieur au 2e cycle du secondaire Suède 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus 2004 Inférieur au 2e cycle du secondaire Suisse 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Royaume-Uni 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus États-Unis 2004 Inférieur au 2e cycle du secondaire 2e cycle du secondaire et post-secondaire non tertiaire Tertiaire de type B Tertiaire de type A et programmes de recherche de haut niveau Tous niveaux de formation confondus Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). Les symboles représentant les données manquantes sont présentés dans le Guide du lecteur. StatLink : http://dx.doi.org/10.1787/215474611731 156 Regards sur l’éducation © OCDE 2006 % 39.5 27.6 12.9 14.2 24.5 24.5 8.8 4.5 1.1 10.1 32.8 18.4 16.3 5.0 18.7 23.9 13.8 12.7 11.0 15.0 56.6 47.9 28.0 25.4 44.3 57.7 39.2 18.9 10.2 32.6 61.5 33.7 24.6 17.0 28.8 Supérieur à la moitié du niveau médian, mais inférieur ou égal au niveau médian Supérieur au niveau médian, mais inférieur ou égal à 1,5 fois le niveau médian Supérieur à 1,5 fois le niveau médian, mais inférieur ou égal à 2.0 fois le niveau médian % 47.5 49.8 30.4 30.3 42.6 65.5 51.8 36.0 18.8 44.9 52.5 50.9 59.6 27.5 44.7 55.9 57.4 38.1 26.9 48.6 39.4 34.2 33.0 30.3 34.2 38.0 42.3 39.6 22.2 36.9 32.4 40.9 38.5 23.9 33.5 % 11.5 19.6 41.0 43.7 27.0 8.6 27.4 32.1 42.1 27.4 13.2 25.9 19.2 35.0 23.9 17.8 24.3 39.6 42.9 28.7 3.1 15.2 30.2 26.3 16.3 3.2 13.8 30.4 29.2 17.9 3.9 17.4 21.7 25.5 19.7 % 1.1 2.3 10.7 7.8 4.1 1.1 7.9 13.0 21.1 10.2 1.1 3.2 3.1 20.1 7.9 1.9 3.3 7.6 11.9 5.3 0.6 2.2 6.6 12.1 3.8 0.7 3.1 8.2 24.5 8.3 1.6 4.7 9.5 16.2 9.2 Tous niveaux de revenus confondus Norvège Supérieur à 2.0 fois le revenu médian Pays membres de l’OCDE Inférieur ou égal à la moitié du niveau médian Niveau des revenus du travail % 0.4 0.7 4.9 3.9 1.8 0.2 4.2 14.4 16.9 7.4 0.5 1.7 1.8 12.4 4.8 0.5 1.2 2.1 7.3 2.4 0.2 0.4 2.2 5.9 1.3 0.3 1.6 2.9 13.8 4.4 0.6 3.3 5.7 17.5 8.7 % 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 Le rendement de l’éducation : niveau de formation et revenus du travail – INDICATEUR A9 chapitre A Tableau A9.5. Taux de rendement interne (TRI) privé à l’obtention d’un diplôme de fin d’études secondaires ou post-secondaires non tertiaires (CITE 3/4) (2003) A9 TRI à l’obtention d’un diplôme TRI à l’obtention d’un diplôme correspondant au niveau correspondant au niveau d’enseignement supérieur, dans l’hypothèse d’un individu qui d’enseignement supérieur a repris des études à plein temps à l’âge de 40 ans et qui a supporté… …les coûts directs et le manque à gagner Belgique Danemark Finlande Hongrie Corée Nouvelle-Zélande Norvège Suède Suisse Royaume-Uni États-Unis Hommes % 14.3 (1) (1) 9.7 13.5 14.1 (1) (1) 7.9 25.1 (1) Femmes % 11.9 (1) (1) 11.3 6.6 16.2 (1) (1) 8.3 29.9 (1) Hommes % 9.0 12.8 -0.5 11.4 13.2 10.3 9.3 7.7 10.2 8.2 20.9 Femmes % 24.4 12.9 2.6 13.7 12.2 7.3 10.8 5.4 10.2 9.0 18.7 …le manque à gagner, mais pas les coûts directs Hommes % 9.3 13.0 -0.5 11.7 13.6 10.7 9.7 7.7 12.1 8.6 21.4 Femmes % 25.8 13.1 2.7 14.1 13.1 7.8 11.9 5.4 15.6 9.8 19.3 Remarque : (1) = Les revenus excessivement faibles observés chez les jeunes de 15 à 24 ans titulaires d’un diplôme du premier cycle du secondaire donnent lieu à des estimations excessivement élevées. Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). StatLink : http://dx.doi.org/10.1787/215474611731 Tableau A9.6. Taux de rendement interne (TRI) privé à l’obtention d’un diplôme de niveau tertiaire (CITE 5/6) (2003) TRI à l’obtention d’un diplôme TRI à l’obtention d’un diplôme correspondant au niveau correspondant au niveau d’enseignement supérieur, dans l’hypothèse d’un individu qui d’enseignement supérieur a repris des études à plein temps à l’âge de 40 ans et qui a supporté… …les coûts directs et le manque à gagner Belgique Danemark Finlande Hongrie Corée Nouvelle-Zélande Norvège Suède Suisse Royaume-Uni États-Unis Hommes % 10.7 8.3 16.7 22.6 12.2 9.3 12.1 8.9 10.0 16.8 14.3 Femmes % 15.2 8.1 16.0 15.0 14.9 12.9 15.7 8.2 9.8 19.6 13.1 Hommes % 20.0 12.4 16.2 25.1 15.0 6.5 15.6 10.4 10.9 11.4 12.9 Femmes % 28.2 10.2 13.2 19.4 27.7 7.5 15.9 8.2 20.6 14.9 9.7 …le manque à gagner, mais pas les coûts directs Hommes % 21.1 12.5 16.4 27.8 15.9 7.2 15.8 10.8 11.3 12.5 15.1 Femmes % 32.2 10.5 13.4 22.0 31.1 8.8 16.2 8.7 22.2 16.8 13.0 Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). StatLink : http://dx.doi.org/10.1787/215474611731 Regards sur l’éducation © OCDE 2006 157 chapitre A Les résultats des établissements d’enseignement et l’impact de l’apprentissage Tableau A9.7. Taux de rendement interne (TRI) public à l’obtention d’un diplôme de fin d’études secondaires ou post-secondaires non tertiaires (CITE 3/4) (2003) A9 TRI à l’obtention d’un diplôme TRI à l’obtention d’un diplôme correspondant au niveau correspondant au niveau d’enseignement supérieur, dans l’hypothèse d’un individu qui d’enseignement supérieur a repris des études à plein temps à l’âge de 40 ans et qui a supporté… …les coûts directs et le manque à gagner Belgique Danemark Finlande Hongrie Corée Nouvelle-Zélande Norvège Suède Suisse Royaume-Uni États-Unis Hommes % 11.3 14.3 9.8 7.6 6.7 8.3 7.5 13 .2 1.9 13.8 13 .3 Femmes % 9.2 11.6 6.7 8.2 3.2 5.4 5 .2 10 .2 3.2 11.1 10 .5 Hommes % 2.2 2.1 -9.2 3.3 3.2 3.0 0.4 -0.2 -4.1 4.8 14.2 Femmes % 6.4 1.9 -2.6 5.9 3.7 -2.2 -0.2 -0.1 -3.1 4.1 13.1 …le manque à gagner, mais pas les coûts directs Hommes % 2.1 2.1 -9.2 3.2 2.6 2.7 0.2 -0.2 -4.6 4.3 13.7 Femmes % 6.2 1.9 -2.6 5.7 3.0 -2.4 -0.4 -0.1 -3.7 3.4 12.5 Remarque : Les bénéfices négatifs sont dus à un manque à gagner excessivement élevé qui entraîne des estimations excessivement basses. Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). StatLink : http://dx.doi.org/10.1787/215474611731 Tableau A9.8. Taux de rendement interne (TRI) public à l’obtention d’un diplôme de niveau tertiaire (CITE 5/6) (2003) TRI à l’obtention d’un diplôme TRI à l’obtention d’un diplôme correspondant au niveau correspondant au niveau d’enseignement supérieur, dans l’hypothèse d’un individu qui d’enseignement supérieur a repris des études à plein temps à l’âge de 40 ans et qui a supporté… …les coûts directs et le manque à gagner Belgique Danemark Finlande Hongrie Corée Nelle-Zélande Norvège Suède Suisse Royaume-Uni États-Unis Hommes % 12.2 7.8 13.6 18.8 14.2 9.9 9.5 7 .5 6.3 13.7 14 .1 Femmes % 17.9 6.9 11 .3 13.1 16.8 9.9 9.9 6.3 5.8 16.1 13 .0 Hommes % 10.6 3.4 10.7 14.8 7.4 2.4 4.3 3.6 -0.1 6.4 9.6 Source : OCDE. Voir les notes à l’annexe 3 (www.oecd.org/edu/eag2006). StatLink : http://dx.doi.org/10.1787/215474611731 158 Regards sur l’éducation © OCDE 2006 Femmes % 9.4 1.0 8.7 10.3 17.2 2.1 4.5 1.8 -0.7 8.4 6.0 …le manque à gagner, mais pas les coûts directs Hommes % 10.3 3.3 10.6 13.6 5.9 1.7 4.3 3.4 -0.2 5.6 7.3 Femmes % 9.0 0.9 8.6 9.2 13.1 1.2 4.5 1.6 -0.9 7.1 3.2 INDICATEUR A10 Le rendement de l’éducation : liens entre l’éducation, la croissance économique et les résultats sociaux Cet indicateur étudie le rôle du capital humain dans l’amélioration du niveau et du taux de croissance de la production par habitant dans les pays. Il prolonge l’analyse de l’indicateur A9 qui examine la relation entre le capital humain et le rendement économique aux niveaux public et individuel. Alors que l’indicateur A9 rend compte de l’évolution des revenus professionnels d’un individu en fonction de l’augmentation de son niveau de formation, l’indicateur A10 cherche à évaluer l’effet de l’évolution du capital humain sur la productivité du travail et sur la santé. 160 Regards sur l’éducation © OCDE 2006 Autres faits marquants INDICATEUR A10 • Dans les pays de l’OCDE, l’effet à long terme d’une année d’études supplémentaire sur la production économique est généralement compris entre 3 et 6 % selon les estimations. Il ressort également d’analyses basées sur les résultats scolaires de 14 pays de l’OCDE que le capital humain a des effets positifs significatifs sur la croissance. • Selon une analyse des facteurs de croissance économique réalisée par le Secrétariat de l’OCDE, l’augmentation du PIB par habitant s’explique pour moitié au moins par l’accroissement de la productivité du travail dans la plupart des pays de l’OCDE pendant la période allant de 1994 à 2004. • De nombreuses analyses établissent une relation causale positive entre l’élévation du niveau de formation et l’amélioration de la santé physique et mentale. Regards sur l’éducation © OCDE 2006 161 chapitre A A10 Les résultats des établissements d’enseignement et l’impact de l’apprentissage Contexte Depuis le milieu des années 1980, la croissance économique occupe une place centrale dans les recherches macroéconomiques. De nouvelles théories – en particulier la théorie de la nouvelle croissance – et de nouvelles approches empiriques ont suscité un regain d’intérêt chez les chercheurs. Le capital humain, c’est-à-dire le volume de connaissances et de compétences des travailleurs, est au cœur de ce renouveau de la réflexion sur la croissance. Les écarts sensibles de performance macroéconomique qui ont été observés dans les pays de l’OCDE ont également incité les spécialistes à s’intéresser aux facteurs de croissance. La comparaison des estimations du rendement de l’éducation au niveau microéconomique (l’indicateur A9) et macroéconomique (le présent indicateur) peut se révéler très pertinente pour l’action publique. En effet, des écarts entre ces deux types d’estimations peuvent indiquer l’existence de différences entre le rendement privé et le rendement public de l’éducation qui pourraient nécessiter des mesures politiques correctives. Par exemple, si une élévation du niveau de formation entraîne, à l’échelle globale de l’économie, une augmentation de la productivité qui vient s’ajouter à l’augmentation de la productivité de chaque travailleur, cela donnera lieu à une tendance à la baisse de l’investissement dans l’éducation, les individus omettant de prendre en considération les bénéfices sociaux indirects qui pourraient être générés par leurs choix de carrière. Dans ce contexte, l’analyse des estimations microéconomiques des équations salariales et des données transversales sur les individus d’un pays donné permet uniquement de cerner les effets de la scolarisation sur les individus, alors que l’analyse des estimations macroéconomiques et des données des différents pays permet aussi d’évaluer des impacts sociaux plus généraux. Dans cette édition, l’indicateur A10 passe également en revue les relations entre le niveau de formation et la santé physique et mentale. Ces relations suscitent de plus en plus d’intérêt en raison des problèmes de cohésion sociale qui sont associés à la mondialisation et à l’immigration. Les diverses corrélations positives entre le niveau de formation et le bien-être physique et mental sont déjà largement documentées, mais il reste à établir la nature, l’importance et la causalité de ces facteurs. L’analyse plus approfondie de ces relations pourrait avoir des implications majeures pour l’action publique, d’autant plus que, dans de nombreux pays, le coût global des soins de santé augmente à un rythme plus soutenu que la croissance économique. Observations et explications Importance critique de la productivité du travail et du capital humain Le graphique A10.1 montre l’importance relative des éléments moteurs de la croissance du PIB par habitant entre 1994 et 2004. Il isole trois facteurs associés à la variation du PIB par habitant dans chaque pays : l’évolution démographique, l’utilisation de la main-d’œuvre et la productivité du travail. L’évolution démographique, c’est-à-dire la variation de la proportion de personnes en âge de travailler dans la population totale, n’a joué qu’un rôle mineur dans la croissance de la production par habitant, excepté en Irlande, au Mexique et en Turquie. Il y a lieu toutefois de signaler que, dans certains pays de l’OCDE (tels que l’Allemagne, l’Autriche, la Belgique, le Danemark, l’Islande, l’Italie, le Japon, le Luxembourg, les Pays-Bas et la Suisse), l’évolution démographique – au sens comptable considéré ici – a commencé à freiner légèrement la croissance du PIB par habitant. Cette tendance devrait s’accentuer à l’avenir en raison de l’augmentation rapide de la proportion de personnes âgées dans la population totale. 162 Regards sur l’éducation © OCDE 2006 Le rendement de l’éducation : liens entre l’éducation, la croissance économique et les résultats sociaux – INDICATEUR A10 chapitre A Graphique A10.1. éléments moteurs de la croissance du PIB par habitant (1994-2004) Tendances, moyenne des variations annuelles en pourcentage Croissance du PIB par habitant PIB par actif occupé Le ratio population en âge de travailler / population totale Le ratio emploi/population en âge de travailler Irlande Corée Hongrie Luxembourg Finlande Grèce Islande Espagne Suède Royaume-Uni Australie Norvège Turquie Canada Nouvelle-Zélande États-Unis Portugal Autriche Pays-Bas Belgique France Danemark Italie Allemagne Mexique Japon Suisse -1.5 -1.0 -0.5 0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0 6.5 7.0 % Les pays sont classés par ordre décroissant de la croissance du PIB par habitant. Source : OCDE. StatLink : http://dx.doi.org/10.1787/578250155156 Dans la plupart des pays, l’amélioration de l’utilisation de la main-d’œuvre disponible, c’est-àdire l’augmentation de la proportion d’actifs occupés dans la population en âge de travailler, a exercé un impact nettement plus important sur la variation de la production par habitant. Dans des pays comme l’Espagne, l’Irlande et le Luxembourg, ce facteur explique entre 2 et 2,5 % environ de l’augmentation du PIB par habitant par an. Le graphique A10.1 montre qu’entre 1994 et 2004, la hausse de la productivité du travail (le PIB par personne employée) a contribué pour moitié au moins à la croissance du PIB par habitant dans la plupart des pays de l’OCDE. Et dans certains pays (notamment en Autriche, en Corée, au Danemark, aux États-Unis, en Grèce, en Hongrie, au Japon et en Turquie), elle explique même la quasi-totalité de la croissance du PIB par habitant. Différentes approches peuvent être adoptées pour renforcer la productivité du travail : améliorer la qualité de la main-d’œuvre utilisée dans le processus de production, augmenter l’exploitation du capital par le travailleur ou encore accroître l’efficience globale de la mise en œuvre conjointe de tous ces facteurs, ce que les économistes appellent la productivité multifactorielle. La productivité multifactorielle reflète de nombreux gains d’efficience différents, par exemple la rationalisation Regards sur l’éducation © OCDE 2006 163 A10 chapitre A A10 Les résultats des établissements d’enseignement et l’impact de l’apprentissage des pratiques de gestion, la modification des modalités d’organisation et l’application de processus novateurs permettant d’accroître la valeur de la production pour une combinaison donnée de capital et de travail. L’ensemble des connaissances et compétences des travailleurs, c’est-à-dire le capital humain, joue un rôle majeur dans la croissance de la productivité du travail. L’élévation du niveau de formation des travailleurs n’est qu’un élément parmi d’autres qui confirme ce rôle. L’amélioration des compétences au-delà de la formation initiale est peut-être plus importante encore, bien que les estimations fiables soient rares. Selon le rapport de l’OCDE sur la croissance, l’augmentation du niveau de formation des adultes d’une année d’études a un impact à long terme sur le niveau de production qui est généralement compris entre 3 et 6 %. Encadré A10.1. Littératie et croissance économique dans 14 pays de l’OCDE Récemment, des chercheurs ont tenté d’estimer la relation entre le capital humain et la croissance économique en se fondant sur des scores en lecture, ou littératie, comparables entre les pays. Cette approche a le mérite de contourner le problème des lacunes de comparabilité des évaluations du niveau de formation entre les différents systèmes d’éducation des pays. Ces scores ont été recueillis lors de l’Enquête internationale sur la littératie des adultes (IALS, International Adult Literacy Survey) réalisée en 1994 dans 14 pays de l’OCDE. Cette enquête a évalué le niveau de compétence d’individus âgés de 16 à 64 ans dans le domaine de la compréhension de textes suivis, schématiques et au contenu quantitatif. Une série chronologique synthétique allant de 1960 à 1995 a été établie à partir des résultats de cette enquête. Les scores obtenus par les individus âgés de 17 à 25 ans pendant une période donnée ont ensuite été utilisés comme indicateurs de l’investissement consenti dans le capital humain au cours de la période précédente. Il ressort de cette étude que les scores de littératie utilisés comme indicateurs directs du capital humain sont plus fiables dans les analyses de régression de croissance que les indicateurs de scolarité. Si un pays obtient des scores supérieurs de 1 % à la moyenne internationale, son taux de productivité du travail et son niveau de PIB par habitant sont respectivement supérieurs de 2,5 et de 1,5 % à ceux des autres pays. L’enquête IALS avance deux hypothèses pour expliquer la raison pour laquelle les scores de littératie sont plus révélateurs du bien-être relatif des nations que les années de scolarité. D’une part, le niveau de compétence est peut-être un indicateur plus fidèle de certains éléments moteurs de la croissance, comme les infrastructures sociales, et, d’autre part, la comparabilité internationale des scores de littératie est probablement supérieure à celle des années de scolarité. Pour juger du bien-fondé de ces deux interprétations, l’enquête propose d’approfondir les recherches et de comparer les effets du capital humain sur la croissance en fonction des deux indicateurs dans les régions d’un pays donné, ce qui supprimerait les problèmes de comparabilité internationale. L’analyse comparative des deux indicateurs permettrait d’identifier celui qui rend le mieux compte du capital humain et celui qui est le plus étroitement associé à la croissance économique. Il est établi que les mesures s’appuyant sur les scores moyens de littératie de tous les individus sont des indicateurs nettement plus fidèles du capital humain total que celles qui sont fondées sur les proportions d’individus ayant des niveaux élevés de littératie. Cette conclusion soutient la thèse selon laquelle le principal impact de l’éducation sur la croissance est d’augmenter la 164 Regards sur l’éducation © OCDE 2006 Le rendement de l’éducation : liens entre l’éducation, la croissance économique et les résultats sociaux – INDICATEUR A10 chapitre A productivité de la population active, plutôt que d’accroître la proportion d’individus susceptibles d’apporter des innovations fondamentales. Par ailleurs, il est frappant de constater que l’augmentation du niveau de littératie chez les femmes a un impact nettement plus important sur la croissance qu’elle ne l’a chez les hommes. Plusieurs hypothèses ont été avancées pour expliquer ce phénomène : l’investissement dans la formation des femmes peut avoir été réservé à des sujets particulièrement brillants qui étaient auparavant victimes des barrières sociales ; le taux de rendement de l’éducation peut être élevé chez les femmes en raison de leurs faibles niveaux initiaux de compétence dans ces domaines ; l’élévation du niveau de formation peut donner lieu à une redistribution des professions entre hommes et femmes en fonction de leur avantage comparatif ; si les hommes et les femmes ne sont pas entièrement interchangeables sur le marché du travail, l’accroissement du niveau de formation des femmes peut donner lieu à une période de forte croissance rééquilibrant le capital humain et physique avant une stabilisation à un nouveau niveau ; la variation plus grande des scores des femmes entre les pays a probablement des effets statistiques ; le niveau de compétence des femmes peut être associé à des variables qui ne sont pas prises en considération, mais qui affectent la croissance (le niveau de développement social d’un pays, par exemple). Source : Coulombe et al. (2004). Estimation du rendement macroéconomique de l’éducation : défis et questions en suspens De nombreuses recherches empiriques ont confirmé l’existence d’une relation positive entre l’éducation et la productivité. Les travailleurs plus instruits sont généralement plus productifs. Ils sont aussi susceptibles d’augmenter la productivité de leurs collègues. Un capital humain plus abondant facilite les investissements dans le capital matériel et favorise le développement et la diffusion des nouvelles technologies, lesquelles améliorent à leur tour la productivité des travailleurs. En outre, un certain nombre d’avantages indirects de l’éducation exercent vraisemblablement un impact positif sur l’économie. Ainsi, l’élévation du niveau de formation est associée à l’amélioration de la santé et, à certains égards, de la cohésion sociale et de la participation à la vie politique. Les études sur le rendement macroéconomique de l’éducation se fondent sur diverses méthodologies et sur deux grandes approches théoriques. La première, néoclassique, modélise la relation entre le volume d’éducation et le niveau du PIB à long terme. C’est cette approche que la plupart des études ont retenue. La deuxième approche, qui s’inspire de la « théorie de la nouvelle croissance », modélise la relation entre le volume d’éducation et le taux de croissance du PIB. La question de savoir si l’augmentation du volume d’éducation affecte principalement le niveau de production ou son taux de croissance n’est pas tranchée. Quant à l’importance du rendement, les études basées sur les modèles néoclassiques indiquent que l’élévation du niveau de formation moyen d’une année d’études donne lieu à une augmentation du niveau de production par habitant qui est comprise entre 3 à 6 %. Les études qui ont adopté la deuxième approche montrent que la même élévation du niveau de formation entraîne une progression du taux de croissance de la production de l’ordre de 1 %. Ces deux approches théoriques génèrent des résultats nettement différents à moyen et long terme, car l’effet absolu sur le PIB d’une augmentation cumulée du taux de croissance de 1 % dépasse rapidement celui de l’augmentation Regards sur l’éducation © OCDE 2006 165 A10 chapitre A A10 Les résultats des établissements d’enseignement et l’impact de l’apprentissage ponctuelle du niveau de production, même si elle est de l’ordre de 6 % (estimation la plus haute). Toutefois, à court terme, l’importance absolue des effets prévus sur la production est comparable dans les deux modèles théoriques. L’estimation de l’impact de l’éducation sur la croissance a été entravée par plusieurs problèmes d’ordre conceptuel et méthodologique. Parmi les plus importants, citons le sens de la causalité dans la relation entre éducation et croissance : est-ce l’éducation qui stimule la croissance ou la croissance qui incite les individus à « consommer » plus d’éducation ? Dans les faits, il est probable que la causalité joue dans les deux sens. Dans le même ordre d’idée, il existe peut-être aussi une relation positive entre l’efficience de la production de l’éducation et l’efficience dans d’autres secteurs de l’économie. Les résultats de nombreuses études ont également pâti de la qualité médiocre des données. Ainsi, de faibles corrélations ont été observées entre des variables provenant de sources clés de données sur l’éducation. De plus, certaines études sur la croissance se sont fondées sur tout un éventail d’indicateurs de capital humain tels que le nombre moyen d’années d’études, le niveau de compétence des adultes et les effectifs des établissements, sans compter que les différentes études ont utilisé diverses variables dépendantes. Ces indicateurs posent un certain nombre de problèmes. Par exemple, ils ne portent que sur l’enseignement institutionnel et ne tiennent compte ni des savoirs et savoir-faire acquis au travers de la formation continue, de l’expérience et d’autres formes d’apprentissage, ni des compétences perdues parce qu’elles restent inexploitées, etc. De même, les estimations du niveau de littératie des adultes ne reflètent qu’une seule dimension du capital humain et ignorent des paramètres tels que leurs aptitudes arithmétiques ou leurs connaissances techniques. En effet, des spécifications différentes du capital humain donnent lieu à des écarts majeurs dans l’estimation du volume de capital humain des pays. Enfin, la comparabilité des indicateurs sur le niveau de formation entre les pays est souvent loin d’être parfaite en raison de la variation de la qualité des systèmes d’éducation. Il est possible également que les divers types de formation exercent des impacts différents sur la croissance : la productivité ne sera vraisemblablement pas affectée de la même façon par des diplômés en ingénierie que par des diplômés en arts. Or, les indicateurs agrégés classiques du capital humain ne rendent pas compte de cet impact différentiel. Par ailleurs, les analyses de régression de la croissance entre les pays partent généralement du principe que l’impact de l’éducation est linéaire et constant d’un pays à l’autre alors que, selon certaines études, cette hypothèse est dénuée de fondement. Plusieurs éléments confirment que ces effets sur la croissance diminuent au-delà d’une moyenne de 7,5 années d’études (voir la section « Définitions et méthodologie »). Ce seuil est nettement inférieur au nombre moyen d’années d’études dans le cadre institutionnel qui s’établit à 11,8 années dans les pays de l’OCDE (voir l’indicateur A1). De nombreuses incertitudes subsistent à propos de la relation entre éducation et croissance. Comme indiqué plus haut, il reste à déterminer si l’éducation et l’augmentation du capital humain affectent le niveau du PIB ou son taux de croissance. Parmi les questions pertinentes pour l’action publique auxquelles la recherche doit encore apporter une réponse, citons les suivantes : 166 Regards sur l’éducation © OCDE 2006 Le rendement de l’éducation : liens entre l’éducation, la croissance économique et les résultats sociaux – INDICATEUR A10 chapitre A • Quel est l’impact sur la croissance de l’investissement dans différents niveaux d’éducation (de l’encadrement pré-primaire à l’enseignement tertiaire de haut niveau, en passant par la formation continue) ? • Après combien d’années et à quels niveaux de formation l’impact sur la croissance diminue-t-il de manière sensible ? • L’impact sur la croissance de l’investissement dans l’éducation varie-t-il selon les domaines d’études (l’ingénierie ou les arts, par exemple) ? • En quoi la croissance est-elle affectée par la qualité de l’éducation ? • Pour autant qu’ils soient confirmés, en quoi les effets de l’élévation du niveau de formation sur la croissance dépendent-ils du niveau de formation antérieur ? Vue d’ensemble des corrélations entre éducation et santé Il existe une relation positive entre l’élévation du niveau de formation et la réduction de la fréquence de divers troubles physiques et mentaux. Des corrélations s’observent en la matière entre les pays, ainsi qu’entre les groupes d’âge et de revenus et les groupes ethniques. Les interactions dont il est question ici sont directes et indirectes. Elles varient parfois au cours du cycle de la vie (un projet sur les effets sociaux de l’apprentissage, en cours de réalisation à l’OCDE, étudie une série de résultats de l’éducation, dont ceux qui sont spécifiques à la santé). Une description plus précise de la nature et de l’importance de tous les effets de l’éducation sur la santé pourrait fournir un nouveau mode de calcul de l’investissement public dans l’éducation. De nombreuses études suggèrent l’existence d’un impact bénéfique de l’éducation sur la santé, mais cette relation de causalité est difficile à établir en raison de certains problèmes méthodologiques. Par exemple, l’état de santé mentale et physique et les caractéristiques des parents peuvent influer à la fois sur la réussite scolaire et sur la santé. L’investissement des individus dans l’éducation et la santé dépend dans une certaine mesure de leurs perspectives temporelles, selon qu’ils privilégient plutôt le présent, ou plutôt l’avenir. L’état de santé est corrélé au niveau de formation, même si l’impact de la santé sur le niveau de formation peut être faible chez les adultes. Les recherches portant sur l’impact de l’élévation du niveau de formation sur l’état de santé des individus avancent trois grandes thèses : • Les effets sur les revenus et l’emploi – Les individus dont le niveau de formation est plus élevé sont moins exposés au risque de chômage et d’inactivité économique associé à un moins bon état physique et mental. Ils sont aussi plus susceptibles d’exercer des professions qu’ils jugent épanouissantes et qui risquent moins de porter atteinte à leur santé physique. Ils jouissent généralement de meilleurs revenus et d’un meilleur statut professionnel. Des revenus plus élevés peuvent faciliter l’accès aux soins de santé (selon les pays) et diminuer le stress qu’entraîne l’insécurité financière. Les salaires plus élevés associés à des niveaux de formation supérieurs contribuent également à augmenter le coût d’option de comportements nocifs pour la santé. Aux États-Unis, on estime que des facteurs économiques expliquent environ la moitié de l’impact de l’éducation sur l’état de santé physique des adultes âgés de plus de 60 ans. • Les effets sur les comportements en matière de santé – Les individus peuvent modifier leur comportement pour de nombreuses raisons. Que ce soit parce qu’ils sont plus sensibilisés à des problèmes de Regards sur l’éducation © OCDE 2006 167 A10 chapitre A A10 Les résultats des établissements d’enseignement et l’impact de l’apprentissage santé ou qu’il leur est plus facile de trouver et de comprendre des informations pertinentes (bien que certaines études montrent que la scolarisation a un effet positif sur la santé même si les connaissances en matière de santé sont constantes). L’éducation peut également amener les individus à se préoccuper davantage de l’avenir et, donc, les encourager à réaliser des investissements à plus long terme concernant leur santé. L’impact des changements de comportement associés à l’élévation du niveau de formation varie en fonction de l’état de santé. Selon certaines études, il existe des corrélations positives entre des niveaux de formation supérieurs et des comportements favorables à la santé : l’adoption de régimes alimentaires plus sains, l’incidence plus faible du tabagisme et de la consommation excessive d’alcool, la fréquence accrue de l’exercice physique et le port plus fréquent de la ceinture de sécurité. L’accroissement du niveau de formation est également associé à un meilleur recours aux services de santé. Selon des recherches menées aux États-Unis, les individus atteints d’un cancer de la prostate par exemple ont tendance à consulter à un stade plus précoce de la maladie s’ils ont un niveau de formation plus élevé. Quant aux femmes, elles se soumettent moins souvent à une mammographie si leurs compétences en lecture sont inférieures. Des recherches réalisées sur les femmes au Royaume-Uni ont montré que l’apprentissage à l’âge adulte avait un impact important sur la fréquence du dépistage, et ce indépendamment des revenus, de la profession ou de la classe sociale. Des individus plus instruits peuvent même intervenir dans la conception des services de soins de santé, au travers des actions de lobbying par exemple. Dans ce contexte, les chercheurs et les décideurs s’intéressent de plus en plus au niveau de compétence dans le domaine de la santé – c’est-à-dire la capacité des adultes « d’obtenir, de traiter et de comprendre des informations de base relatives à la santé et aux soins de santé de façon à pouvoir prendre des décisions pertinentes en la matière » (Rudd et al., 1999).
49,825
tel-03755539-IMBERT%20-%20Les%20effets%20des%20lois%20de%20lai%CC%88cisation%20et%20des%20lois%20lai%CC%88ques%20sur%20le%20patrimoine%20de%20l%27Eglise%20catholique%20Ise%CC%80re.txt_31
French-Science-Pile
Open Science
Various open science
2,022
Les effets des lois de laïcisation et des lois laïques sur le patrimoine de l’Église catholique : l’exemple de l’Isère (1880-1951). Droit. Université de Grenoble, 2012. Français. &#x27E8;NNT : &#x27E9;. &#x27E8;tel-03755539&#x27E9;
None
French
Spoken
7,051
10,585
Une fois ce premier choix fondamental effectué, le gouvernement s’est toujours inquiété de garantir la continuité du culte catholique. Dans cette optique, il est rapidement admis que les immeubles cultuels doivent bénéficier d’un statut particulier protégeant leur affectation. La construction progressive d’un régime de compromis autour de ces bâtiments doit autant aux initiatives du législateur, qu’à la réalité empirique des situations locales auxquelles les maires, notamment, ont été confrontés. De manière générale, la première distinction conduit à constater une différence de statut entre les églises et chapelles d’une part, et les presbytères de l’autre. La consultation des correspondances administratives de ces premiers mois charnières est révélatrice des difficultés et des choix qui ont été faits. Dès décembre 1906, les consignes précises transmises par le préfet de l’Isère aux maires de son département indiquent clairement l’ordre des priorités : pour les églises et les chapelles, il est affirmé qu’elles conserveront jusqu’à décision contraire leur affectation actuelle, qu’elles appartiennent à l’État, aux communes, ou aux anciens établissements publics du culte. Toutefois, dans ce dernier cas, leur destination actuelle cesserait si ces immeubles étaient attribués, par application de l’article 9, paragraphe 1er de la loi, à des établissements communaux d’assistance ou de bienfaisance. Réserve faite de cette éventualité, les églises ou chapelles resteront donc ouvertes et l’accès continuera à en être permis tant aux fidèles qu’aux membres du clergé, pour y exercer publiquement le culte. En revanche, pour les presbytères, il est indiqué que les communes recouvrent la possession légale des bâtiments qui leur appartiennent à l’expiration du délai d’un an après la promulg de la loi de séparation ; durant l’année qui suit, elles pourront les louer au ministre du culte. Pendant deux ans, leur 1867 POULAT (Émile), Notre laïcité publique, op. cit., p. 156. destination est donc protégée1868. Une fois ce délai expiré, en l’absence d’association cultuelle, les communes pourront alors demander la désaffectation définitive de leurs presbytères pour en recouvrer la disposition entière et absolue1869. Les bases sur lesquelles se dessine le régime juridique à venir soulignent la première préoccupation du législateur : assurer le libre accès aux édifices du culte pour permettre le déroulement des cérémonies religieuses (§1). Cependant, la difficulté à parvenir à un compromis politique explique le maintien d’un précaire statu quo dans le courant de l’année 1907. C’est alors à la jurisprudence qu’échoit le rôle de réguler et de préciser le régime permettant la continuité du culte catholique (§2). §1. La première mesure immédiate : garantir le déroulement des cérémonies du culte L’ampleur des problèmes pratiques posés par la décision de refus du Saint-Siège se mesure à la lecture de l’état des lieux dressé par Louis Méjan : « en préparant et en discutant la loi de Séparation, nous étions si bien persuadés que son application par l’Église catholique était certaine que nous n’avions expressément prévu que l’exercice du culte par les soins d’une association cultuelle, propriétaire des églises ou en disposant légalement »1870. Or, suite au rejet de ce statut juridique, l’enjeu est désormais le suivant : en dehors de ce cadre initialement prévu, comment permettre le déroulement du culte sans entrave? Le devenir des églises soulève des interrogations sur la nature et la reconnaissance d’une occupation qui, dans son principe même, ne saurait être remise en cause. Est-il envisageable de les louer, ou doit-on se contenter de les laisser simplement à disposition du curé, ou même des fidèles? Les options ne manquent pas. Mais si chacun a conscience de la nécessité d’aboutir à une solution, trouver un terrain d’entente s’avère très difficile dans un contexte de tensions. Une première proposition, provisoire, est esquissée en fin d’année 1906 : le recours à la loi de 1881 sur la liberté de réunion. Mais cette ouverture, critiquée, est rejetée par le Saint- 1868 Si les communes voulaient utiliser leur presbytère pour un autre objet, elles ne pourraient le faire que provisoirement et sous la clause résolutoire de réaffecter l’immeuble au culte en cas de création d’une association cultuelle dans le délai légal de 2 ans après la promulgation de la loi de séparation. 1869 Cf. ADI 8V 1/4 : Lettre du 5 décembre 1906 du préfet de l’Isère aux maires de son département. 1870 MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 386. Université Pierre Mendès France 484 | Siège, provoquant son échec (A). C’est finalement la loi du 2 janvier 1907 qui offre un cadre légal suffisamment souple pour assurer la continuité du culte (B). A. Une première proposition : le recours à la loi sur la liberté de réunion de 1881, un échec programmé L’idée du gouvernement de permettre l’exercice du culte en dehors de toute association cultuelle, en respectant les modalités prévues par la loi de 1881, se heurte une nouvelle fois à l’absence de coopération du Saint-Siège qui refuse expressément de se conformer à la formalité administrative requise (1). Si le gouvernement apparaît tout d’abord résolu à ne pas céder, ordonnant une mise en œuvre rigoureuse de la loi de 1881, il lui faut rapidement admettre que les verbalisations ne suffiront pas et que cette solution n’est pas pérenne (2). 1. Le refus militant des catholiques de se soumettre à la formalité de la déclaration préalable Le mois de décembre 1906 représente une échéance qui se fait de plus en plus pressante à mesure que l’année s’écoule. Au cours du conseil des ministres du 28 octobre 1906, Briand propose sa solution : pour que le culte puisse être exercé légalement, sans cultuelles, il conviendrait tout simplement d’appliquer la loi de 1881 sur les réunions publiques, avec pour seule formalité exigée, celle de la déclaration préalable. Clemenceau, devenu président du Conseil le 25 octobre, donne son approbation. Le Conseil d’État confirme cette interprétation de l’article 25 de la loi du 9 décembre 19051871 dans un avis du 31 octobre 19061872. Le choix ne fait pas l’unanimité dans le camp des partisans de la séparation : si les plus intransigeants des anticléricaux souhaitent une application rigoureuse de la loi de séparation, Jaurès plaide, sans succès, pour le droit commun et le « bénéfice de la 1871 Article 25 de la loi du 9 décembre 1905 : « Les réunions pour la célébration d’un culte tenues dans les locaux appartenant à une association cultuelle ou mis à sa disposition sont publiques. Elles sont dispensées des formalités de l’article 8 de la loi du 30 juin 1881, mais restent placées sous la surveillance des autorités dans l'intérêt de l'ordre public. Elles ne peuvent avoir lieu qu’après une déclaration faite dans les formes de l’article 2 de la même loi et indiquant le local dans lequel elles seront tenues. Une seule déclaration suffit pour l’ensemble des réunions permanentes, périodiques ou accidentelles qui auront lieu dans l’année. » 1872 Cf. « Lettre du ministre des cultes au Conseil d’État du 12 octobre 1906 ; Avis du Conseil d’État du 30 octobre 1906 », Revue générale d’administration, 1907.1.50. | 485 loi de 1901 pour l’Église »1873. S’efforçant d’anticiper les critiques catholiques et d’assouplir le régime envisagé, le 1er décembre, Briand adresse aux préfets une circulaire d’esprit plus libéral1874 : il y explique notamment que l’application de la loi de 1881 implique « par la force même des choses certains accommodements pour s’adapter aux cérémonies religieuses »1875. Il prévoit ainsi une simplification de la procédure, réduisant la formalité à une « seule déclaration annuelle [qui] suffira pour toutes les cérémonies publiques religieuses, dont les jours et les heures peuvent être facilement déterminés à l’avance »1876. De plus, il est dispensé de devoir former un bureau. La presse catholique est d’emblée très sceptique : la Croix de l’Isère retient surtout de ce nouveau texte que « la police de l’assemblée appartiendra à l’autorité municipale »1877. La liberté des cultes, ainsi subordonnée, ne serait alors plus qu’une « chimère »1878. Si certains évêques envisagent bel et bien la possibilité de la mise en œuvre d’un tel système, Pie X écarte finalement l’idée d’une conciliation en se montrant déterminé à poursuivre son opposition systématique1879 : il ordonne de s’abstenir de toute déclaration1880. Dans l’ensemble, les instructions du Saint-Siège sont bien suivies. Quelques déclarations préalables sont faites mais elles sont le fruit de l’initiative privée de laïcs n’ayant souvent pas pris la mesure des enjeux politiques liés aux rapports de force qui se jouent1881. Pour preuve, certains se rétractent par la suite, conscients d’être allés à l’encontre d’une ligne officielle qu’il importe de préserver, comme en témoigne la lettre qu’un conseiller municipal du village de Brion adresse au préfet de l’Isère : « Je regrette comme catholique la déclaration 1873 La Dépêche Dauphinoise, 16 novembre 1906. Cf. ADI 8V1/1 : Circulaire du 1er décembre 1906 : « La loi du 9 décembre 1905 concernant la Séparation des Églises et de l’État est toute entière dominée par le principe de la liberté de conscience, d’où dérive le libre exercice des cultes. Cette double liberté proclamée par l’article premier n’a d’autres limites que celles qui sont posées par la loi ellemême dans l’intérêt de l’ordre public. Dès lors, si les adeptes d’une religion – membre du clergé et fidèles – renoncent à former des associations cultuelles et à profiter ainsi du moyen que la loi met à leur disposition pour s’organiser en vue du culte public, ils ne sont pas pour cela privés du droit de pratiquer leur religion. Indépendamment de la faculté, qui leur appartient, de recourir au culte privé, ils peuvent, sans s’unir par les liens d’un contrat d’association, subvenir à l’exercice public du culte par des réunions tenues sur initiatives individuelles et bénéficier ainsi, à défaut de la liberté d’association dont ils ne veulent pas user dans les conditions où elle leur est offerte par la loi, de la liberté de réunion. » 1875 Cf. OUDIN (Bernard), Aristide Briand, op. cit., p. 153. 1876 Cf. ibid. 1877 La Croix de l’Isère, 4 décembre 1906. 1878 Ibid. 1879 L’interdiction pontificale est rapportée dans une circulaire du 7 décembre 1906 du cardinal archevêque de Paris : « À la question posée par plusieurs évêques à la suite de la récente circulaire ministérielle, le Saint Père répond : “Continuer le culte dans les églises. S’abstenir de toute déclaration”. » (MAYEUR (Jean-Marie), La séparation des Églises et de l’État, op. cit., p. 142.) 1880 Cf. La Croix de l’Isère, 11 décembre 1906. 1881 Ces déclarations préalables sont rassemblées aux archives départementales de l’Isère dans le dossier 8V1/4. 1874 Université Pierre Mendès France 486 | que, sous la plus entière bonne foi, j’ai faite et signée conjointement avec un autre conseiller le 13 décembre 1906, pour l’exercice du culte dans l’église paroissiale de Brion. Je retire donc ma signature et décline toute la responsabilité que j’ai pu assumer par la susdite déclaration »1882. Il est clair pour tout catholique que les consignes d’absence de déclaration ne sauraient souffrir aucune dérogation. L’évêque de Grenoble réprouve d’ailleurs fermement ces déclarations, en publiant un communiqué univoque dans la Semaine religieuse du 20 décembre 19061883. Il y rappelle notamment que, dans ces temps troublés d’adversité, « jamais l’unité d’action et de discipline [n’a été] plus nécessaire »1884. Cette opposition de principe explique que s’ouvre le 11 décembre 1906 une période de quelques jours de flottement, qui resteront connus comme correspondant à la fameuse « semaine des procès-verbaux ». 2. La « semaine des procès-­‐‐verbaux » (Décembre 1906) Face à la défiance et aux revendications catholiques, le gouvernement refuse dans un premier temps tout compromis et opte pour l’intransigeance. Dans une circulaire du 10 décembre 1906 qu’il adresse aux préfets, Briand est sans ambiguïté : tout non respect des formalités exigées doit entraîner une verbalisation, suivant les sanctions prévues par la législation en vigueur. Il recherche cependant un équilibre, s’efforçant d’arbitrer entre une tentation libérale et l’importance de demeurer légaliste afin d’assurer l’autorité de l’État ; cette volonté est perceptible lorsqu’il écrit, par exemple, que « par cela même que le gouvernement apporte dans l’application des lois de 1881 et de 1905 l’esprit le plus libéral, il entend que ces lois, ainsi interprétées largement, soient obéies dans leurs dispositions 1882 ADI 8V1/4 : Lettre du 20 janvier 1907 de Jean-Joseph Guillot, conseiller municipal à Brion, au préfet de l’Isère. 1883 Cf. La Semaine religieuse, 20 décembre 1906. « Communiqué de l'évêché : Nous appre nons avec peine que, dans quelques paro isses du diocèse , des personnes assur ément bien intentionnées , mais peu éclairées ou mal conseillées , ont cru pouvoir prendre sur elles de faire , à l’insu de MM . les curés ou contre leur gré, la déclaration si arbitrairement exigée pour les réunions du culte. Nous réprouvons hautement de telles démarches ; elles constituent une désobéissance formelle aux directions du Saint Père, un empiètement abusif sur l’autorité des pasteurs, et une acceptation implicite de la situation précaire et équivoque faite à notre religion par la loi de 1905 et les circulaires ministérielles qui la commentent. Jamais l’unité d’action et de discipline ne fut plus nécessaire qu’aujourd'hui aux catholiques de France. Jamais les initiatives isolées et inconsidérées ne furent plus inopportunes et plus dangereuses. Nous recommandons instamment à tous les fidèles, aux prêtres comme aux laïques, de s’en tenir, avec le plus docile abandon, aux décisions du Chef de l’Église. C'est la loi que nous nous sommes imposés à nous-mêmes ; et nous ne ferons rien d’autre que de vous traduire exactement sa pensée, en vous donnant, quand il le faudra et dans la mesure où il le faudra, suivant les circonstances, les instructions que vous devrez suivre. » 1884 Ibid. | 487 présentant un caractère impératif »1885. Il « compt[e] sur [la] fermeté et [la] vigilance [des préfets] pour concourir avec lui à assurer le respect de la légalité »1886. La première semaine d’expiration du délai d’un an ouvert par la loi de séparation est ainsi marquée par une verbalisation massive des ministres du culte catholique célébrant leur messe sans avoir procédé à la déclaration préalable considérée nécessaire. En Isère, la presse locale, aussi bien radicale que catholique ou socialiste, commente abondamment ces péripéties. Dans une chronique quotidienne sobrement intitulée « L’Église contre la Loi »1887, la Dépêche Dauphinoise fait le récit de ces « martyrs ridicules »1888 : dans une « profonde indifférence »1889, les curés disent leur messe, tandis que les agents de police, sans se faire connaître, constatent cette infraction. Une lettre sera envoyée ultérieurement au contrevenant. Le « calme plat »1890 révèle à quel point les « fidèles s’en [moquent] comme de leur premier office »1891. De son côté, la Croix de l’Isère, évoquant les deux agents de police en civil forcés d’assister à toutes les messes des paroisses de Grenoble pour pouvoir verbaliser, ironise en remarquant qu’il « faut arriver au ministère Clemenceau pour avoir enfin un gouvernement qui oblige ses fonctionnaires à aller à la messe »1892 : « l’ordre moral et l’Empire »1893 sont dépassés. Tous les agents de l’État « maugréent contre la besogne absurde »1894 qu’ils doivent accomplir, verbalisant en vertu d’une loi « qui n’aurait rien à voir avec le culte sans un caprice du ministre Briand »1895. Le Droit du Peuple est tout aussi critique à l’encontre de cette « fâcheuse et inefficace méthode de combat »1896, diagnostiquant, dans l’obstination stérile de Briand, son « dépit de voir sa loi tenue en 1885 ADI 8V1/1 : Circulaire du 10 décembre 1906. Briand poursuit : « Il n’y a pas de citoyens français qui, sous quelque prétexte que ce soit, aient le droit de se placer au-dessus des lois françaises et de se rebeller contre elles. Il importe donc que si, à l’expiration du délai sus-rappelé, le culte est publiquement exercé sans déclaration ne satisfaisant pas aux conditions spécifiées dans ma circulaire du 1er courant, les contraventions ainsi commises par les curés et desservants et par tous autres organisateurs de réunions cultuelles soient relevées. Je vous invite donc à donner immédiatement les instructions indispensables pour que toutes contraventions soient constatées par procès-verbaux que vous déférerez au Parquet. M. le Garde des Sceaux donne, de son côté, des ordres aux procureurs généraux pour que au vu de ces procès-verbaux, les poursuites soient exercées. » 1886 ADI 8V1/1 : Circulaire du 10 décembre 1906. 1887 La Dépêche Dauphinoise, 14 décembre 1906. 1888 La Dépêche Dauphinoise, 17 décembre 1906. 1889 La Dépêche Dauphinoise, 15 décembre 1906. 1890 Ibid. 1891 Ibid. 1892 La Croix de l’Isère, 14 décembre 1906. 1893 Ibid. 1894 La Croix de l’Isère, 16-17 décembre 1906. 1895 Ibid. 1896 Le Droit du Peuple, 18 novembre 1906. Université Pierre Mendès France 488 | échec »1897. En résumé, le « plus grand désordre »1898 règne dans les diverses administrations, « reflet des fluctuations et des incertitudes gouvernementales »1899, constate la Croix de l’Isère qui estime que « la multiplicité des procès-verbaux va aboutir à un résultat vraiment inextricable »1900. De fait, la situation créée par ces « délits de messe » ne pouvait perdurer très longtemps. Certaines statistiques gouvernementales avancent le chiffre de 40.000 contraventions dressées durant ces quelques jours1901. Cependant, devant la vanité de cette répression stérile, le gouvernement donne l’ordre de stopper les verbalisations dès le 18 décembre, en attendant le vote d’un nouveau projet en préparation censé proposer une nouvelle voie de sortie de crise : ce sera la loi du 2 janvier 1907. Ultérieurement, il convient de préciser également que la loi du 28 mars 1907, issue d’une proposition de loi initiée par Étienne Flandin1902, supprimera définitivement cette formalité des déclarations préalables aux réunions publiques1903. B. La seconde proposition : le nécessaire recul gouvernemental consacré par la loi du 2 janvier 1907 L’échec du recours à la loi de 1881 oblige le gouvernement à préparer un nouveau texte pour adapter les points devenus problématiques dans la loi de 1905 : l’objectif reste d’aménager l’exercice du culte sans associations cultuelles (1). La mise en œuvre de la nouvelle loi de janvier 1907 ne sera pas exempte d’importantes difficultés pour établir précisément les modalités du titre juridique d’occupation des églises. Étant donné qu’en février 1907, Briand précise qu’à défaut de contrat, les charges d’entretien des édifices du culte incomberaient aux communes, la conclusion d’un tel acte est recherchée par les collectivités publiques1904. Mais les deux parties échouent dans leur tentative de compromis 1897 Le Droit du Peuple, 18 novembre 1906. La Croix de l’Isère, 16-17 décembre 1906. 1899 Ibid. 1900 Ibid. 1901 Cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 412. Cf. Ibid., p. 442. 1903 Loi du 28 mars 1907 relative aux réunions publiques : « Article 1er – Les réunions publiques, quel qu’en soit l’objet, pourront être tenues sans déclaration préalable. Article 2 – Sont abrogées, en ce qu’elles ont de contraire à la présente loi, les dispositions des lois des 30 juin 1881, 9 décembre 1905 et 2 janvier 1907. » 1904 Cf. La Dépêche Dauphinoise, 25 février 1907. 1898 | 489 pour s’accorder sur les modalités du titre de jouissance contractuel des édifices par les ministres du culte (2). 1. L’immédiat : l’exercice du culte rendu possible en dehors des associations cultuelles Pour compléter et adapter le régime juridique prévu par la loi de 1905, pressé d’agir par sa majorité, Briand soumet un deuxième projet de loi qui est déposé dès le 15 décembre 1906, et qu’il présente le 21 à la Chambre1905 et le 28 au Sénat1906. Suivant une formule politique déjà employée, la loi du 2 janvier 1907 traduit la volonté du ministre de maintenir l’Église dans « la légalité malgré elle »1907. Elle s’efforce d’organiser l’exercice du culte en dehors des associations cultuelles. Tout en laissant toujours ouverte la possibilité de recourir à ce statut de faveur, elle introduit en plus la faculté d’utiliser la loi de 1901, c’est-à-dire le droit commun réclamé « depuis de longs mois par Jaurès et par maints hommes politiques ou observateurs, soucieux d’apaiser le malentendu persistant entre le Saint-Siège et le gouvernement français »1908. L’article 4 prévoit ainsi que, « indépendamment des associations soumises aux dispositions du titre IV de la loi du 9 décembre 1905, l’exercice public d’un culte peut être assuré tant au moyen d’associations régies par la loi du 1er juillet 1901 que par voie de réunions tenues pour initiatives individuelles en vertu de la loi du 30 juin 1881 et selon les prescriptions de l’article 25 de la loi du 9 décembre 1905 »1909. Enfin, l’article 5 laisse la jouissance gratuite des édifices affectés à l’exercice du culte, ainsi que des meubles les garnissant, aux fidèles et aux ministres du culte. Cette mise à disposition, prévue pour être formalisée par un acte administratif, pourra être accordée « soit à des associations cultuelles constituées conformément aux articles 18 et 19 de la loi du 9 dé 1905, soit à des associations formées en vertu des dispositions précitées de la loi du 1er juillet 1901 pour assurer la continuation de l’exercice public du culte, soit aux ministres dont les noms devront 1905 La loi est votée à la Chambre par 413 voix contre 166. Cf. MAYEUR (Jean-Marie), La séparation des Églises et de l’État, op. cit., p. 144. 1907 Cf. BAUBÉROT (Jean), Histoire de la laïcité en France, op. cit., p. 86. 1908 MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 419. 1909 Article 4 de la loi du 2 janvier 1907 : « Indépendamment des associations soumises aux dispositions du titre IV de la loi du 9 décembre 1905, l’exercice public d’un culte peut être assuré tant au moyen d’associations régies par la loi du 1er juillet 1901 (articles 1, 2, 3, 4, 5, 6, 7, 8, 9, 12 et 17) que par voie de réunions tenues sur initiatives individuelles en vertu de la loi du 30 juin 1881 et selon les prescriptions de l’article 25 de la loi du 9 décembre 1905. » 1906 Université Pierre Mendès France 490 | être indiqués dans les déclarations prescrites par l’article 25 de la loi du 9 décembre 1905 »1910. Réaménageant les conditions dans lesquelles peut se poursuivre l’exercice du culte catholique, la loi du 2 janvier 1907 pose ainsi les jalons d’une nouvelle tentative de conciliation avec le Saint-Siège. Elle laisse certes plusieurs choix à l’Église catholique. Mais l’hypothèse d’un recours au droit commun, c’est-à-dire former des associations fondées sur la loi du 1er juillet 1901, apparaît trop proche des cultuelles condamnées pour être suivie, comme prend soin de bien l’expliquer l’évêque de Grenoble dans la Semaine religieuse1911. Au risque de confusion aux yeux de l’opinion catholique, s’ajoute la défiance à l’égard d’un gouvernement qui a trop cherché à l’automne 1906 à trouver des associations cultuelles, en dépit du souhait de ceux qui avaient constitué certains groupements discutés1912. C’est pourquoi la préférence des dignitaires ecclésiastiques va à la conclusion d’un contrat de jouissance directement avec le ministre du culte concerné, sans groupement formé. Cependant admettre ce principe ne fait que déplacer la difficulté : quelles seront les modalités prévues dans ces actes administratifs qui confèreront aux occupants un titre juridique et règleront les rapports entre les propriétaires des édifices et ceux qui en ont la jouissance? L’année 1907 est 1910 Article 5 de la loi du 2 janvier 1907 : « À défaut d’associations cultuelles, les édifices affectés à l’exercice du culte, ainsi que les meubles les garnissant, continueront, sauf désaffectation dans les cas prévus par la loi du 9 décembre 1905, à être laissés à la disposition des fidèles et des ministres du culte pour la pratique de leur religion. La jouissance gratuite en pourra être accordée soit à des associations cultuelles constituées conformément aux articles 18 et 19 de la loi du 9 décembre 1905, soit à des associations formées en vertu des dispositions précitées de la loi du 1er juillet 1901 pour assurer la continuation de l’exercice public du culte, soit aux ministres dont les noms devront être indiqués dans les déclarations prescrites par l’article 25 de la loi du 9 décembre 1905. La jouissance ci-dessus prévue desdits édifices et des meubles les garnissant sera attribuée, sous réserve des obligations énoncées par l’article 13 de la loi du 9 décembre 1905, au moyen d’un acte administratif dressé par le préfet pour les immeubles placés sous séquestre et ceux qui appartiennent à l’État et aux départements, par le maire pour les immeubles qui sont les propriétés des communes. Les règles sus-énoncées s’appliqueront aux édifices affectés au culte qui, ayant appartenu aux établissements ecclésiastiques, auront été attribués par décret aux établissements communaux d’assistance ou de bienfaisance par application de l’article 9, paragraphe 1er, de la loi du 9 décembre 1905. » 1911 Cf. La Semaine religieuse, 21 février 1907. Lettre pastorale : « La première de ces deux issues ne donnait pas l’impression qu’il fut prudent de s’y engager. Et ici l’on ne s’arrêtait pas seulement devant un jugement de l’opinion dont il y avait pourtant lieu de tenir compte. Évidemment on s’exposait fort au reproche d’inconséquence et d’illogisme de la part du peuple catholique qui, ne faisant aucune différence entre les associations cultuelles et celles de droit commun et les confondant les unes avec les autres, ne serait que trop porté à se demander pour quelles raisons l’Épiscopat les avaient rejetées au moment où, en les acceptant, il pouvait sauver encore les biens du clergé, et pourquoi il les acceptait aujourd’hui, quand la spoliation était chose faite. Jugement erroné, peut-être, mais vraiment est-ce sûr qu’il le soit? [...] Qui donc peut se croire autorisé à l’affirmer, toutes associations, même de droit commun, formées en vue de l’exercice et de l’entretien du culte étant nécessairement cultuelles par destination et rien ne garantissant que la loi de 1905 ne leur sera pas rigoureusement appliquée un jour ou l’autre, avec toutes les sanctions qu’elle comporte au gré du ministre [...]. Décidément, cette voie-là était suspecte : la confiance manquait trop aux Évêques [...]. » 1912 Le souvenir du traitement de l’association de Mgr Lecot est encore bien présent dans les esprits. une nouvelle année compliquée qui confirme la rupture et le fossé de plus en plus marqué entre les conceptions des deux camps. Divers problèmes apparaissent, avec pour point de conflit majeur l’enjeu que représente la reconnaissance de la hiérarchie catholique. Pour l’Église, tout curé n’est qu’un délégué de l’évêque dans sa paroisse, par conséquent, lorsqu’un « prêtre, dans une commune, est appelé à signer, conjointement avec le maire, un contrat destiné à pourvoir légalement à la continuité et à la sécurité du service paroissial, il importe que, dans cet acte administratif, soit très nettement indiquée l’autorisation expresse qu’il en a reçue de son Chef hiérarchique, parce que seule elle peut donner une valeur à sa signature »1913. L’autre grande exigence catholique est relative à la durée du contrat : afin d’assurer la stabilité du culte, il est souhaité qu’elle ne soit pas inférieure à 18 années, tout en prévoyant que la jouissance de l’édifice s’étendra à tous les successeurs éventuels du desservant1914. 2. La complexité des négociations sur les modalités du titre juridique d’occupation des édifices du culte Durant les premiers mois de l’année 1907, le gouvernement français et les dignitaires ecclésiastiques tentent de s’accorder sur le contenu discuté des clauses des contrats de jouissance (a). Dans les faits, cette période de confusion qui brouille quelque peu les lignes, entre et au sein même des deux camps, gouvernementaux et catholiques, aboutit finalement à la persistance de la situation précaire initiale. Aucun accord n’est certes trouvé quant à la conclusion d’un acte juridique, mais aucune remise en cause de l’occupation des édifices du culte n’ lieu (b). a. L’impossible compromis sur les conditions de conclusion du contrat de jouissance Du 15 au 18 janvier 1907 se tient au château de la Muette la troisième assemblée plénière des évêques1915. Elle rend publique, comme résultat de ses travaux1916, une 1913 La Semaine religieuse, 21 février 1907. Cf. La Semaine religieuse, 21 février 1907. 1915 Cf. La Croix de l’Isère, 30 janvier 1907. 1916 Les notes de Méjan affirment que cette déclaration n’émane pas de l’assemblée de la Muette, mais qu’elle fut rédigée toute entière à Rome. Elle ne fut pas discutée lors de l’assemblée, les évêques n’en prenant connaissance 1914 Université Pierre Mendès France 492 | déclaration épiscopale dans laquelle elle formalise différentes exigences pour accepter les contrats de jouissance. Le manifeste paraît dans le Figaro le 30 janvier. Face à cette proposition unilatérale, la première réaction du président du Conseil, Clemenceau, est de repousser vigoureusement le projet ainsi présenté1917. Briand regrette quant à lui la « forme comminatoire et inacceptable »1918 du texte, mais ne se départit pas de sa ligne d’ouverture1919. Des pourparlers sont ouverts pour tenter de résoudre les divergences de vues et parvenir à une formule commune pour ces actes. Mais les tensions internes au gouvernement troublent un peu plus la visibilité des positions de chacun. Le 30 janvier, devant la Chambre, Clemenceau désavoue Briand, le désignant comme étant au moins partiellement responsable des difficultés d’application de la loi de séparation1920. La crise ministérielle est évitée de justesse1921. Même la presse favorable à la majorité relate le conflit patent entre les deux hommes1922, le Président du Conseil étant « extrêmement irrité de la méthode assez étrange du ministre des cultes qui négocie avec l’archevêché par l’intermédiaire de la presse réactionnaire »1923. En dépit de ces turbulences politiques, la séance du 19 février scelle la fin des tergiversations gouvernementales ; la presse radicale parle de « coup de théâtre »1924. Voyant son projet d’entente avec le Vatican de plus en plus compromis par les demandes de Rome, Briand se réconcilie avec Clemenceau et la majorité de gauche de la Chambre des députés1925. 23 février, une note officieuse confirme la rupture des négociations avec l’Église catholique. C’est l’échec de l’ultime tentative d’accord que la veille du jour de sa publication. (cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 427.) 1917 Cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 427-428. 1918 MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 428. 1919 Briand retient « comme une promesse heureuse d’apaisement possible, le fait que, pour la première fois, le principe d’une législation cultuelle est admis et que, pour la première fois, on consent à entrer dans le cercle tracé par la loi ». (MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 428.) 1920 Clemenceau se joint à Jaurès pour se moquer de Briand à la tribune en ironisant : « Cette loi avait tout prévu, hormis ce qui est arrivé. Nous sommes dans l’incohérence, disait hier M. Allard. C’est vrai, nous y sommes en plein. Ce n’est pas moi qui m’y suis mis. On m’y a mis. J’y suis, j’y reste! » Briand riposte, puis quitte la salle. Clemenceau devra lui faire des excuses publiques pour qu’il accepte de revenir prendre sa place sur le banc du gouvernement. (cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 432.) 1921 Cf. OUDIN (Bernard), Aristide Briand, op. cit., p. 154. 1922 Une anecdote est particulièrement révélatrice des tensions. Croisant Pelletan dans les couloirs qui lui demande si la route de Canossa est belle, Clemenceau aurait répondu : « Je n’en sais rien. Briand nous y mène dans une voiture fermée dont il a baissé les stores. Impossible d’admirer le paysage ». (cf. OUDIN (Bernard), Aristide Briand, op. cit., p. 154-155. ) 1923 La Dépêche Dauphinoise, 18 février 1907. 1924 La Dépêche Dauphinoise, 19 février 1907. 1925 Cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 433-434. entre le gouvernement français et Pie X1926. De part et d’autre, chacun se rejette la responsabilité. Le 28 février, dans la Semaine religieuse, l’évêque de Grenoble défend ainsi la position des évêques : « l'épiscopat s'est heurté sur la question des contrats à de telles exigences de la part de l'État, et si manifestement inacceptables, qu'il semble difficile de n'y point voir un dessein arrêté chez nos maîtres de refuser la paix aux catholiques »1927. Conséquence de ce désaccord, il enjoint aux curés de « gard[er] prudemment et simplement le statu quo »1928. Parallèlement à ces négociations au plus haut niveau, sur le terrain, le mois de février 1907 est également celui des tentatives de transactions locales. Sans attendre l’issue des discussions au sommet, l’évêque de Grenoble adresse dès le début du mois la proposition épiscopale portant sur les églises aux différents maires de son diocèse. Fin février, il salue l’« accueil favorable »1929 des communes, précisant n’avoir rencontré que 11 refus – dont cinq étaient motivés par des raisons particulières ne remettant pas en cause le principe de l’acte proposé1930. Cela pourrait être interprété comme le signe d’une volonté de compromis manifeste au niveau des responsables locaux, plus ancrés dans la réalité pratique et moins portés sur des débats de principes, mais il faut cependant quelque peu nuancer cette présentation flatteuse. En effet, l’étude des réponses reçues montre que la grande majorité des maires diffèrent leur décision et attendent des instructions de la préfecture, ou bien demandent à réunir le conseil municipal avant toute signature. Une minorité accepte, certains signent même le contrat proposé par le desservant. Enfin, une portion encore plus faible de communes oppose un refus net et clairement exprimé. Un dossier de toute cette correspondance du début du mois de février 1907 est conservé aux archives diocésaines1931. À la fin du mois de février, la Semaine religieuse publie les résultats suivants : sur 591 paroisses dans le diocèse de Grenoble, 481 ont répondu au 21 février 1907. 133 ont accepté, 338 ont demandé un délai et 1926 Cf. MÉJAN (Louise-Violette), La séparation des Églises et de l’État, l’œuvre de Louis Méjan, op. cit., p. 436. 1927 La Semaine religieuse, 28 février 1907. 1928 Ibid. 1929 Ibid. 1930 Ibid. 1931 Cf. Archives du diocèse de Grenoble-Vienne, « 1906-1907. Séparation (2) » : Tableau ré capitul atif concernant les procès-verbaux de concession de jouissance, 1907. Un document conservé aux archives diocésaines indique qu’au sein du diocèse, suite à leur présentation aux maires de chaque commune du projet de contrat, les curés ont obtenu 426 réponses. Parmi elles, 103 sont positives, acceptant donc le bail aux conditions de l’Assemblée des évêques, 313 réclament un délai de réflexion et 10 rejettent purement et simplement la proposition. Si les statistiques de ce tableau interne ne recoupent pas exactement les chiffres rendus publics, les tendances sont les mêmes, confirmant donc les conclusions sur la répartition des réponses des maires. Université Pierre Mendès France 494 | enfin 10 ont refusé. Il reste à connaître plus de 100 paroisses, mais la tendance globale des retours prudents se confirme1932. Signe de la sensibilité politique de l’enjeu et justifiant la retenue des maires, l’évêque n’hésite pas à citer nommément ceux qui ont rejeté purement et simplement la proposition1933. Cette frilosité des maires n’est pas seulement la manifestation d’une forme d’instinct de survie politique en attendant de voir la situation s’éclaircir. En effet, une dépêche de la préfecture leur est adressée en urgence au début du mois de février, leur enjoignant de ne pas signer et de ne donner qu’un accusé de présentation à l’acte proposé par les curés1934. Pour comprendre l’ampleur des confusions de ces quelques semaines de début d’année 1907, il est utile d’éclairer plus précisément le déroulement des événements en Isère. b. Une période de confusion : l’illustration sur le terrain La chronologie des informations transmises aux maires explique tout d’abord certains flottements. La réunion des évêques s’est tenue à la mi-janvier, mais c’est dans une circulaire du 3 février 1907 que le ministre de l’Instruction publique et des cultes précise les divers points de divergence essentiels. Il apporte quelques précisions importantes, indiquant notamment que la mise à la disposition des fidèles et du clergé des édifices affectés à l’exercice du culte, ainsi que des meubles les garnissant, fera d’eux de simples occupants sans titre juridique, ne disposant que d’une jouissance de fait, tant que les formalités prévues à l’article 5 de la loi du 2 janvier 1907 n’auront pas été remplies1935. L’acte administratif requis 1932 Cf. La Semaine religieuse, 21 février 1907. Cf. ibid. « Parmi les maires qui ont refusé sont ceux de : Dionay, Flachères, Froges, Oz-en-Oisans, Pont-de-Beauvoisin, Saint-Didier-de-Bizonnes, Saint-Jean-le-Vieux. » 1934 Cf. Archives du diocèse de Grenoble-Vienne, « 1906-1907. Séparation (2) » : Lettre du 2 février 1907 du curé de Bessines au vicaire général. « Le maire [...] a différé de signer le contrat proposé. [...] [Il] m’a dit qu’il tenait à réunir le conseil municipal pour prendre là dessus une délibération. Il m’a montré ensuite une dépêche de la Préfecture prévenant les maires de ne donner qu’un accusé de présentation en attendant des ordres et une formule – probablement schismatique – qu’on a projet d’imposer à la place de celle des évêques. » 1935 Cf. ADI 8V1/1 : Circulaire du 3 février 1907 relative à la loi du 2 janvier La circulaire précise également diverses conditions encadrant ce contrat de jouissance : « Le preneur, d’après les principes généraux du louage, a un loyer à payer et il n’est tenu en revanche que des réparations dites locatives. Conformément à ce qui a été expliqué plus haut, l’attribution de la jouissance des édifices religieux, suivant la loi du 2 janvier 1907, ne peut être accordée qu’à titre purement gratuit et elle entraîne nécessairement pour l’attributaire, qu’il s’agisse d’une association ou d’un ministre du culte, l’obligation de supporter les réparations de toute nature. Tout bail qui imposerait un loyer à l’attributaire ou qui, 1933 | 495 pour attribuer la jouissance de l’édifice n’est ni un simple procès-verbal d’entrée en jouissance, ni un acte unilatéral de puissance publique : il s’agit d’un « contrat synallagmatique qui doit être conclu entre le maire ou le préfet agissant au nom de la commune ou de l’État, et l’association ou le ministre du culte »1936. Par la suite, dans une lettre du 6 février 1907, le ministre adresse deux modèles d’acte d’attribution de jouissance aux préfets. S’ils ont un « caractère simplement indicatif »1937, puisqu’ils ne sont « destinés qu’à permettre de guider les maires dans la rédaction des contrats au cas où ils [...] demanderaient des conseils »1938, le ministre prend soin de préciser qu’en cas d’objection, ou de discussion, sur leur contenu, aucune modification ne devra être acceptée et il faudra immédiatement avertir le ministre qui donnera les instructions nécessaires pour accepter ou non la transaction1939. Le 8 février 1907, le préfet de l’Isère répercute ces instructions aux maires du département précisant le contenu du bail à conclure. Sur les points atiques, la position gouvernementale est univoque. La formation d’association, même non cultuelle, continue d’être encouragée : la seule façon d’assurer par avance la jouissance de l’église, pendant une durée déterminée, à la série de desservants qui se succéderont durant cette au contraire, l’exonèrerait explicitement ou implicitement d’une des charges prévues par ladite loi serait entaché d’illégalité. Il n’y a aucun obstacle à ce que les parties contractantes, usant de leur droit de rédiger comme il leur convient le contrat d’attribution pourvu qu’elles ne sortent pas de la légalité, constatent et précisent la situation au point de vue ecclésiastique du ministre du culte qui est destiné à jouir de l’église ainsi que les pouvoirs qu’il tient de ses supérieurs hiérarchiques. De telles indications, loin d’avoir un caractère illégal, concordent avec le vœu de la loi, attendu que jusqu’à désaffectation régulière, les édifices doivent rester affectés, non pas à un culte quelconque, mais au culte auquel ils étaient consacrés avant la séparation. Par conséquent, lorsqu’un acte sera passé par un maire avec un ministre du culte, rien ne s’opposera à ce qu’il y soit mentionné que ce dernier agit avec l’autorisation de ses supérieurs hiérarchiques, et par exemple s’il s’agit d’un curé ou desservant, qu’il a été habilité par l’évêque diocésain à traiter en ladite qualité. Mais dès lors que l’évêque diocésain n’est pas partie à l’acte, il ne saurait être appelé à donner après coup un consentement qui aurait le caractère d’une homologation ; un tel rôle ne peut être rempli que par les dépositaires de l’autorité publique. Il est inadmissible d’ailleurs que le maire soit lié par sa signature sans que le curé le soit par la sienne. Si le curé ou desservant, après s’être entendu avec le maire sur les termes de l’acte, veut, avant de s’engager définitivement, en référer à son supérieur, il n’aura qu’à demander à cet effet, délai à l’expiration duquel les signatures seront échangées. » 1936 ADI 8V1/1 : Circulaire du 3 février 1907 du ministre de l’Instruction publique, des Beaux Arts et des Cultes. De plus, « le législateur a voulu que les parties contractantes ne fussent ni obligées de recourir au ministère d’un notaire, ni réduites à un simple acte sous seing privé, et c’est pourquoi il a décidé que l’acte d’attribution serait passé en la forme administrative. L’acte administratif qui sera ainsi dressé aura tous les avantages, comme toute la valeur, d’un acte authentique ». 1937 ADI 8V1/6 : Lettre du 6 février 1907 du ministre de l’Instruction publique, des Beaux Arts et des Cultes au préfet de l’Isère . 1938 Ibid. 1939 Cf. ibi d. « Si les projets de contrats que vous soumettrez aux intéressés soulèvent des objections de leur part, soit à raison de certaines des dispositions qui s’y trouvent, soit à cause de l’absence de clauses qu’ils voudraient y voir introduire, vous m’en réfèrerez immédiatement ; vous aurez soin dans tous les cas de ne traiter qu’après avoir pris mes instructions. » Université Pierre Mendès France 496 | période est que le contrat soit passé au nom d’une association1940. Concernant la reconnaissance de la hiérarchie ecclésiastique, rien ne s’oppose à ce qu’il soit mentionné dans l’acte que le ministre du culte ait agi avec l’autorisation de ses supérieurs. Cependant « dès lors que l’évêque diocésain n’est pas partie à l’acte, il ne saurait être appelé à donner après coup un consentement qui aurait le caractère d’une homologation »1941. Il serait « inadmissible »1942 que le maire soit lié par sa signature sans que le curé le soit par la sienne.
38,169
63/dumas.ccsd.cnrs.fr-dumas-02140830-document.txt_5
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,936
14,398
- JCY : Je vais être encore plus précise dans la démarche : je voudrais que vous parliez uniquement des patientes qui ont eu un diabète gestationnel, elles sont nombreuses, peu nombreuses, peu importe, elles ont eu un diabète gestationnel qui a été dépisté, elles ont accouché, ces femmes-là, qu'est-ce que vous en faites après? J'entends bien qu'il y a le bébé et tout ça, est-ce que vous avez une approche différente pour ces femmes-là? - M11 : C'est un peu comme les femmes qui ont une éclampsie avec leur tension, si elles ont été suivies au CHU, il y a un suivi spécifique qui a été mis en place sinon on nous demande d'assurer le suivi des glycémies ou de la tension. - JCY : C'est quoi le suivi spécifique qui est mis en place, après la grossesse? - M11 : Elles sont revues précocement et adressées en diabétologie. Donc là, ça nous échappe, oui. - M7 : Ce n'est pas le même suivi qu'on met en place pour ces femmes-là, c'est évidemment qu'on parle diabète, qu'on contrôle les glycémies, l'HbA1C, la prise de poids, qu'on refait peut-être le point sur les antécédents familiaux, qu'on alerte aussi pour le bébé, les courbes de croissance de l'enfant aussi Je pense que je n'ai pas du tout la même attitude, comme disait M11, avec les femmes qui ont eu des complications, soit avant l'accouchement soit pendant l'accouchement, là on met en place un suivi spécifique. - M10 : Je suis tout à fait d'accord avec M7 mais j'ai l'impression qu'on est quand même souvent « shuntés » dans ces cas-là par la prise en charge du diabète qui se fait par d'autres moyens, comme au CHU. - M9 : Je ne sais pas si à XXX c'est différent mais je pense qu'elles ont tendance à échapper à la proposition qui leur est faite de suivi post-grossesse quand même, donc on est là aussi pour rattraper et leur rappeler l'importance Et de prescrire! Et le suivi 121 biologique et les explorations en cas d'anomalie qui persiste aussi. - M8 : J'ai l'impression qu'elles échappent quand même très souvent aux problèmes médicaux quels qu'ils soient, que ce soit pour elles psychologiquement, que ce soit pour elles physiologiquement. Si elles ont une pathologie aiguë, enfin, ponctuelle, découverte lors de la grossesse, j'ai l'impression que lorsqu'elles ont un diabète elles vont avoir une prise de sang après et puis, si tout est normal, il ne va pas forcément y avoir de prise en charge spécifique pour prévoir la grossesse suivante et pour préparer l'avenir à long terme! Je ne sais pas si on a une bonne préparation pour l'avenir Je n'ai pas l'impression que je fais beaucoup de prévention sur le futur, à long terme. - JCY : Donc ce sont des femmes qui vont être prises en charge dans un protocole X ou Y par les maternités par exemple. Mais ces femmes-là sont vos patientes, elles vont rester longtemps avec vous, est-ce que vous rebondissez, est-ce que vous avez une notion de ce qu'il faut faire? Est-ce que vous suivez les protocoles qui sont donnés par l'hôpital? Parce qu'elles ne vont pas aller à l'hôpital pendant dix ans pour être suivies pour leur diabète C'est vous qui êtes leur médecin, donc c'est vers vous qu'elles vont peut-être aller, et dans ce cadre-là, est-ce que vous avez des idées claires par rapport à ça? Est-ce que vous avez un suivi clair? Est-ce que vous notez des choses dans vos dossiers? - M11 : Oui, on note dans les dossiers mais elles sont suivies, au CHU en particulier, elles sont quand même suivies pendant au moins un an. Donc si elles font bien leur suivi, si elles vont bien en consultation après, normalement c'est à peu près bien cadré et ça nous échappe un peu. - JCY : Et après? Un an d'accord, mais le diabète c'est - M11 : Après, on les revoit quand commence une nouvelle grossesse. - M10 : Après si ça se normalise et qu'il n'y a pas de nouvelle grossesse, ça redevient une patiente normale. Mais pas tout à fait, elle est quand même plus à risque de développer un diabète plus tôt, plus précoce, donc je pense qu'il faut être plus vigilant sur la recherche du diabète que chez une femme « standard ». Après, je ne suis pas certain d'avoir effectivement un schéma de la HAS ou de la Société Française de Diabétologie dans la tête pour mettre en place les modalités de suivi, mais c'est évident qu'on fait plus de glycémies chez elles, qu'on programme les prochaines grossesses, avec une surveillance de glycémie tôt dès le début de la grossesse. Enfin ça je pense qu'on le fait tous. - M9 : Oui, je pensais à certaines patientes et je pense que le temps passe, et si elles ne viennent pas consulter pour une contraception oestro-progestative, je ne suis pas sure que je fasse des biologies annuelles aux femmes qui ont eu un diabète gestationnel. D'ailleurs ce n'est peut-être pas annuel, je ne me souviens plus. - M11 : D'ailleurs en parlant de contraception , est-ce qu'on met un oestro-progestatif ou un progestatif seul à une femme qui a eu un diabète gestationnel? S'il n'y en a plus . J'aurais tendance à ne mettre qu ' un Désogestrel, mais je ne sais pas - M9 : S'il n'y a pas d'autre facteur de risque , un oestro-progestatif . - M10 : Je suis comme M7, je n'ai pas de plan en tête, je ne sais pas, s'il y a quelque chose qui est sorti ça m'a échappé. 122 - JCY : Donc on a quand même des difficultés à faire de la prévention par rapport à une pathologie qui peut revenir Donc M7 tu disais qu'il y avait peut-être les complications, peut-être plus de risque de diabète que les autres - M7 : C'est sûr!!! Et chez l'enfant aussi, d'ailleurs. - JCY : Mais vous n'avez pas la sensation de faire plus de prévention que ça chez ces femmes-là, hormis ce qui est donné à l'hôpital - M7 : Est-ce qu'on les re-sensibilise à chaque fois sur la notion de poids, de régime, d'activité physique, peut-être pas, ça a peut-être été fait à un moment, il faudrait peut-être le refaire plus souvent, oui Je pense qu'elles sont quand même plus à risque donc de temps en temps notre discours doit être un petit peu sensibilisé par ce problème qu'elles ont connu pendant leur grossesse, comme le coronarien, on dit « attention », comme l'hypertendu - M10 : Comme à chaque fois qu'il y a un facteur de risque chez quelqu'un, des antécédents familiaux, une surcharge pondérale etc., on revient toujours sur le même schéma, ces femmes-là on va les surveiller un peu plus parce qu'il y a un facteur de risque supplémentaire mais je n'ai pas de protocole bien spécifique pour la surveillance - M9 : Alors que pour l'HTA, pour moi, c'est plus clair. S'il y a eu éclampsie, pré-éclampsie, les antiagrégants, programmer, changer de traitement pour les grossesses futures - M7 : Pour les pré-éclampsies tu as en tête un schéma de surveillance en postaccouchement? Sans qu'il y ait forcément de projet de grossesse? - M9 : Oui oui, contrôler la protéinurie, l'échographie rénale, le doppler des artères rénales et puis pour les prochaines grossesses aussi, prévoir, anticiper - M8 : Ça va être aussi la préparation d'une future grossesse avec certainement une prise en charge diététique au moins, plus précoce, une surveillance biologique plus fréquente, par contre entre deux, une fois que ça s'est normalisé, j'ai le sentiment de faire comme un peu toutes les femmes, peut-être une biologie tous les, je ne sais pas, tous les deux ans - M7 : Je suis peut-être moins attentif quand elles sortent de leur période de femmes fertiles [rires] et peut-être avec le temps d'oublier leur antécédent de diabète gestationnel il y a 20-25 ans. - M8 : Je pense que c'est aussi à elles, une fois informées qu'elles ont plus de risque au moment de la ménopause ou même un petit peu avant, d'avoir un diabète C'est à elles aussi de nous demander de participer à cette vigilance. - M9 : C'est à nous de les informer, je pense qu'on ne le fait pas, enfin personnellement je ne le fais pas. - JCY : Donc les femmes qui sont enceintes et à qui on découvre un diabète gestationnel, qui vont être prises en charge par l'hôpital, qui vont avoir des tas de renseignements : diététique, truc, machin, bidule Vous pensez que ça, ça peut leur suffire? Parce qu'après elles peuvent comprendre les choses et demander un suivi ou du moins discuter d ' un suivi possible avec leur médecin sur le long cours ? 123 - M11 : Ca dépend des femmes . - M8 : J'ai des femmes dont c'est la deuxième grossesse, des jeunes femmes, et elles étaient tout à fait au courant qu'elles allaient être suivies, qu'elles allaient anticiper un petit peu les risques, pendant le suivi de la grossesse qu'elles allaient voir rapidement l'endocrino, la diététicienne Moi, les deux ou trois qui sont récemment suivies, elles ont cette notion-là. - JCY : Et vous avez des idées pour améliorer, qu'est-ce qui pourrait être fait pour que les suivis de ces femmes soient plus protocolisés peut-être? Ou est-ce qu'il y aurait des choses qui pourraient être facilement mises en place et qui permettraient de les suivre et de ne pas oublier qu'elles ont eu un diabète, ou de comprendre que ça peut être quelque chose d'embêtant, ou de leur faire comprendre l'importance de la prise en charge X ou Y? - M11 : Je pense quand même qu'elles ont compris cette importance, les femmes qui ont un diabète, on surveille la croissance du bébé ++, elles ont beaucoup d'échographies, à la limite on génère un stress et dans l'ensemble, sauf si elles sont complètement « neuneu », dans l'ensemble à la prochaine grossesse elles nous en parlent dès le début : « J'ai eu du diabète, qu'est-ce que vous en pensez? » et on prend en charge, éventuellement avec un nutritionniste. Mais je pense qu'il y a quand même un stress autour de la croissance de l'enfant qui leur fait prendre conscience que ce n'est pas banal d'avoir un diabète de la grossesse. - M10 : Je n'ai pas l'impression que ce soit un problème de surveillance pendant la grossesse, parce que pendant la grossesse effectivement, comme tu dis, la prise en charge elle est faite par les spécialistes, par nous C'est plutôt effectivement comme dit M7, qu'est-ce qu'on en fait quand il n'y a pas de grossesse? Est-ce que vraiment c'est un facteur de risque important cardio-vasculaire ou de diabète, est-ce que vraiment ça nécessite une surveillance ou pas, moi je n'ai pas la réponse à ça, je ne sais pas quel est le risque Effectivement elles sont plus à même de faire un diabète, de faire des problèmes cardio-vasculaires mais est-ce que c'est plus que d'avoir un antécédent familial d'infarctus à 60 ans chez son père, je ne sais pas s'il y a des statistiques là-dessus et si ça vaut le coup de les matraquer à faire des HbA1C tous les ans - M8 : Et peut-être de contrôler les autres facteurs de risque, le tabac et d'être plus vigilant, peut-être même que sur l'HbA1C en elle-même - M10 : Quel est le risque du diabète gestationnel sur la mortalité cardio-vasculaire, personnellement je n'ai pas de chiffre. Est-ce qu'il y en a? - M7 : Elles sont plus à risque de faire un diabète, ça c'est une certitude, donc la morbimortalité est à mon avis un peu plus élevée que quelqu'un qui n'a pas cet antécédent. Après je pense qu'on se remobilise effectivement quand il y a un nouveau projet de grossesse. Est-ce qu'après les protocoles sont clairs quand il n'y a pas de projet de grossesse derrière, est-ce qu'il faut faire un fond d'oeil, un écho-doppler des TSA, une protéinurie à un an, trois ans, cinq ans Je n'en sais strictement rien, peut-être que ce protocole devrait être établi à la sortie de la maternité et qu'on devrait y repenser Mettre dans le dossier des rappels, peut-être - M8 : Je n'ai pas l'impression qu'il y ait des recommandations très claires déjà sur la prise en charge du diabète, il me semble qu'elles ont été rayées et que depuis quelques années on ne nous en a pas remis, pour cause de rapport avec l'industrie pharmaceutique qui 124 n'étaient pas clairs [rires]. Je ne sais pas s'il y en a des plus claires pour la pré vention de femmes qui n'ont actuellement pas de diabète mais qui ont eu un antécédent Je n'ai pas lu de choses là-dessus . - M10 : Ça pourrait faire l'occasion d'un retour de nos groupes de pairs. Savoir s'il y a des études - JCY : Est-ce qu'il y a beaucoup de femmes dans ce cas-là? Est-ce que vous suivez beaucoup de grossesses et est-ce que vous avez la sensation d'avoir beaucoup de femmes qui ont eu un diabète gestationnel et que vous suivez après? - M8 : Le suivi des grossesses a beaucoup évolué ces dix dernières années, il y a une pression pour faire de la grossesse, on a tous l'impression, nous qui sommes des vieux médecins, de faire de la grossesse une maladie, ce qui rend notre prise en charge un peu compliquée, notre réflexion un peu compliquée. Donc pour moi la gravité du diabète gestationnel est quelque chose de récent, ou au moins l'importance que ça a pris dans le suivi de ces femmes. J'ai des femmes qui ont cinquante ans, qui ont eu un diabète gestationnel, il y en a une ou deux auxquelles je pense et quand on en a parlé ça m'a forcé la main à faire une glycémie et elle était anormale ou normale. Mais je pense que c'est aussi quelque chose de très récent et nous qui sommes vieux médecins, nous avons beaucoup moins cette pression-là. Et pour avoir vu des protocoles changer de multiples fois, peut-être qu'on est un peu plus dubitatifs au sujet des protocoles formels. - M10 : Il y a 20 ans quand on avait un diabète gestationnel, on avait un diabète gestationnel! On avait des glycémies à 2g50! Maintenant, quand on a 1g de glycémie c'est la panique, il faut voir l'endocrino Cette panique quand on a 1g à jeun, effectivement comme dit M8, il faut relativiser un peu. Il y a quand même diabète et diabète! Mais bon ça ne veut pas dire qu'il ne faut pas prendre en charge les femmes qui ont un diabète léger mais il ne faut pas non plus mettre tout le monde dans le même panier, je trouve. [Silence prolongé] - JCY : Tu as quelque chose à rajouter Lou? - LG : Par rapport aux idées d'amélioration donc il y avait les protocoles, est-ce qu'il y avait - M11 : Justement j'en reviens, est-ce qu'il faut prendre des précautions particulières pour la contraception ou pas ça c'est une question. - LG : Si vous avez des questions, j'y répondrai si je peux à la fin mais ça ne fait pas partie de l'entretien - M8 : Des protocoles très certainement Ça doit être expliqué à la femme surement, qu'elle puisse avoir un suivi de temps en temps, régulier, pourquoi pas? Qu'elle puisse avoir un outil sur lequel elle puisse s'informer un petit peu des risques qu'elle peut prendre pour l'avenir. Du coup on pourrait aussi se servir de cet outil-là. La « fiche patient » de Prescrire : « Vous avez eu un diabète gestationnel » : voilà toc, toc, toc, ce qui peut nécessiter que vous alliez voir leur médecin régulièrement, de lui en parler » et de leur proposer des échéances. Mais je n'ai pas l'impression que tout ça soit aussi formalisé que ça et on est dans une grosse crainte, on est aussi dans une population qui prend du poids, 125 qui a de l'obésité, pour laquelle ça a doublé dans la population européenne, avec des facteurs de risque qui augmentent Alors des protocoles oui mais étant donné la multiplicité des protocoles, on ne peut pas faire reposer tout ça sur le médecin. Il faut que le patient prenne en charge sa maladie, qu'il soit informé, qu'il soit ré-informé Alors estce que c'est notre rôle : oui, mais il n'y a pas que ça. Les médias commenc ent à participer avec des déviances sur lesquelles ils nous font crier « Oh là là, ils sont fous! », mais ça fait partie d'une prise de conscience de la population. Et c'est à la femme de se prendre en charge, au patient de se prendre en charge, on ne peut pas gérer tout seul, avoir tous les rappels, avoir les outils informatiques Je ne sais pas si vous avez un logiciel de prescription avec des alertes quand vous faites des ordonnances, j'ai remis les alertes cette semaine, ça me soule! [rires] Je crois que je vais les ré-éteindre, c'est insupportable, il me sort soixante-dix alertes sur l'âge, sur Avoir des alertes permanentes, ça tue les alertes! Il faut que les patientes se prennent en charge! Alors il y a les patientes qui peuvent le faire, comme tu le disais M11, et les patientes qui n'y arrivent pas Et celles-là ont peut-être besoin d'un accompagnement spécifique. [Sur le ton de la plaisanterie] : On pourrait peut-être leur tatouer! Ou leur mettre une puce [rires] - M9 : Ou la carte vitale ! - M10 : Après c'est comme les alertes, tu ne les regarderas plus, tes puces [rires] - M 8 : Ces choses-là, on ne peut plus les faire tous seuls, cette prévention-là, on ne peut plus la faire tout seuls, il faut qu'on travaille en commun, avec d'autres gens, et c'est plutôt là-dessus qu'il faut qu'on essaye de travailler. Parce que tu ne peux plus gérer tous les protocoles. - M11 : Mais peut-être qu'il ne faut pas tout protocoliser mais faire « à peu près », on connaît nos patients, on sait aussi comment les gérer les uns et les autres, c'est aussi une question très individuelle ça, je pense que les patientes qui ont été très stressées pendant la première grossesse par le diabète et tout le bazar, elles n'ont pas besoin qu'on leur remettre une couche, peut-être qu'au contraire il faut dédramatiser un petit peu la grossesse, etc. Ça ne va pas du tout être le même cas que quelqu'un qui ne s'est même pas aperçue qu'elle avait du diabète, qu'elle a fait de l'insuline et que « Ce n'était rien.». Je pense que dans notre métier on n'a pas que des protocoles, on a aussi des patients, qui sont différents - M7 : Peut - être que le DMP, plus tard, pourra nous aider - M11 : Hmm [ton dubitatif] - M10 : Pour moi c'est pareil que notre dossier à nous, non? - M7 : Peut -être que tu peux visualiser des alertes différemment, à l'ouverture de la carte vitale, avec des antécédents majeurs, des facteurs de risque - M 9 : Mais si le patient va voir son DMP, si on a rempli les facteurs de risque, est-ce que là ça peut le renvoy er à des Il faut que ce soit lui, comme di sait M8, qui prenne en charge. - M 11 : Mais ça rentre au bout du compte toujours dans le grand cadre de la prévention cardio-vasculaire pour nous, que ce soit diabète, hypertension, tabac, on doit toujours rappeler à nos patients qu'ils doivent faire de l'exercice, manger sainement, voilà, tout le 126 bazar Est-ce qu'il faut protocoliser différemment ? - M10 : Je voulais revenir sur la question sur le nombre de grossesses qu 'on suivait, je trouve personnellement que j'en suis beaucoup moins qu'avant, alors est-ce que c'est l'âge, est-ce que c'est les sages-femmes Moi à la campagne j'ai deux sages-femmes à moins de cinq kilomètres du cabinet qui ne demandent qu'à suivre toutes les grossesses Je trouve qu'on suit moins de grossesses, par contre en post-accouchement, effective ment, on revoit les femmes et donc cette question du suivi est tout à fait pertinente et intéressante parce qu' au niveau des grossesses j'en avais peut-être trois ou quatre en moyenne par an il y a dix ans, maintenan t c' est moins, c'est peut-être parce que je vieillis aussi, et que les jeunes femmes vont voir mon confrère qui est plus jeune et plus beau [rires généralisés] - JCY : D'où peut-être l'intérêt de travailler avec les sages-femmes parce qu'elles vont faire les suivis juste avant, et toi tu vas faire le reste, et si le reste tu n'es pas au courant - M8 : Et puis ça fait partie de ce travail en collaboration, je n'ai pas parlé des infirmières tout à l'heure quand j'ai parlé du travail en collaboration, mais on va revenir sur des protocoles parce que, pour pouvoir collaborer, il faut être en accord avec ce qu'on va dire et c'est quand même complexe. Et de se mettre d'accord sur la façon dont on va pouvoir partager les données et les suivis. C'est encore difficile de le faire, c'est difficile d'avoir une infirmière Asalée, c'est difficile de discuter avec des sages-femmes, on marche un petit peu sur des oeufs quand on veut travailler ensemble, il faut qu'on se mette d'accord sur comment on voit les choses les uns les autres et il y a beaucoup de discussions pour travailler en collaboration. En plus nous, on est loin d'avoir fait ça toute notre vie, c'est quelque chose qu'on découvre, enfin qu'on pratique, non pas de façon descendante « Tu fais ça, tu fais ci, tu surveilles ça comme ça!» mais avec des allers-retours, un partage, ça c'est quelque chose de récent. - M11 : Ça c'est un petit peu à côté mais les patientes, quand elles vont en consultation chez des gynécologues ou à l'hôpital, on a un retour. Mais quand elles vont chez des sages-femmes de ville, est-ce que vous avez des retours? Moi, personnellement, je n'en ai pas! - M8 : C'est notamment pour ça que j'ai invité des sages-femmes à venir et qu' on puis se discuter de la façon dont on travaillait et voi là, et on commence à travailler ensemble et pouvoir échanger sans retenue. - JCY : Dans les idées d'amélioration en fait, c'est un travail avec d'autres, une collaboration. - M10 : La collaboration avec les sages-femmes, ça, ça serait intéressant . - JCY : Juste une dernière petite question, par rapport aux maternités, est-ce que vous avez l'impression que les compte-rendus que l'on reçoit, d' accouchement etc, sont différents selon les facteurs de risque ou est-ce que vous avez l'impression que de toute façon c'est toujours la même chose et qu'ils ne mettent pas forcément plus en exergue un problème X ou Y en cours de grossesse? C'est important aussi parce que c'est comme ça qu'on va l'apprendre. - M7 : J'ai l'impression que c'est un peu stéréotypé : elle a accouché à tel terme, l'enfant pesait tant, l'Apgar est à combien J'ai l'impression que parfois ils oublient même de 127 remettre s'il y a eu un problème pendant la grossesse - M8 : « Elle a eu un suivi avec Madame la diététicienne et Monsieur le Docteur Machin. » mais quel suivi? Tu ne sais pas ce qu'ils ont fait! - M11 : C'est très hétérogène! Si c'est par exemple le Dr X., qui par ailleurs n'est pas le plus sympathique, il nous envoie les compte-rendus de ses consultations! Déjà en consultation il a vu s'il y avait un diabète etc. : il nous donne tous ces renseignements-là. Il y en a d'autres, tu n'as pas de nouvelles, tu as juste l'accouchement à la fin. Au CHU, je trouve que le compte-rendu de sortie et d'accouchement est bien complet avec tous les problèmes qu'il y a pu y avoir Ce n'est pas stéréotypé selon les personnes ou selon la maternité. Je trouve que c'est plus dépendant de la personne qui a rédigé les compterendus que de la maternité même. - M7 : Les compte-rendus des consultations à huit mois avec les obstétriciens on ne les a jamais, vous les avez? On ne les as jamais! - M11 : Avec le Dr X., oui! - M7 : Avec lui peut-être Mais les autres on ne les a jamais! Même pour les patientes qui sont à risque, au CHU il n'y a rien, dans les autres maternités il n'y a rien! - M9 : Non, chez nous, on ne les a pas non plus. Il faut aller les chercher. - M8 : Et en plus, dans la relation avec les sages-femmes et notamment les sagesfemmes de l'hôpital on a beaucoup de mal à être pris au sérieux pour le suivi d'un diabète ou le suivi d'une hypertension, le suivi du diabète pour la sage-femme c'est l'endocrinologue et le suivi de l'hypertension c'est le cardiologue, éventuellement le néphrologue, voilà. Et le médecin généraliste, elles ne le connaissent absolument pas. D'abord parce qu'elles l'ont rarement fréquenté personnellement Donc voilà, on est complètement en-dehors de leur champ de vision. - M11 : Pas du tout, quand elles ont fait leurs quinze jours d'arrêt de travail et qu'elles ont besoin qu'on prolonge, elles nous envoient les patientes! [rires] Donc là on existe brusquement au bout de quinze jours! [rires] - M8 : Et là tu peux lui téléphoner pour lui dire « C'est quand même un peu discourtois. J'aurais aimé au moins un courrier.»! Ça fait partie des relations. C'est comme ça que la relation a commencé avec nos sages-femmes, quand j'ai pris mon téléphone - JCY : Avez-vous une phrase de conclusion, chacun d'entre vous, on fait un tour de table, sur ces suivis à court, moyen et long terme, des patientes ayant eu un diabète gestationnel? - M7 : Je serais friand d'avoir les modalités de suivi d'une femme ayant eu un diabète gestationnel, quels examens je dois lui programmer à distance de son accouchement. - M10 : Moi je vais regarder s'il y a quelque chose dans la littérature pour savoir quelle est l'importance du diabète gestationnel dans les complications cardio-vasculaires ou les diabètes futurs, il y a surement des études là-dessus que je ne connais pas. - M8 : On ne fait pas si mal notre boulot. [Rires] 128 - M11 : 100% d'accord! - M8 : C'est vrai qu'on n'a peut-être pas complètement des protocoles mais c'est vrai qu'on arrive quand même à les suivre et je n'ai jamais eu beaucoup de femmes qui étaient en grand problème avec son diabète et qui ait eu un diabète gestationnel. Je pense par contre que le travail collaboratif peut vraiment nous aider, après il faut trouver les façons de pouvoir collaborer avec les autres professionnels de santé. - M9 : Même si c'est un facteur de risque qui est connu, je pense quand même faire de la prévention avec tous les patients et pas simplement avec les femmes qui ont eu un diabète gestationnel, donc je ne suis pas sure que ma pratique va être différente. - M11 : Je suis un petit peu d'accord avec tout le monde [rires]. On fait ce qu'on peut avec les moyens qu 'on a et on ne les suit pas si mal nos patientes. Et surtout on a l'avantage, nous les généralistes, de connaître bien nos patientes et les contextes familiaux, sociaux etc., ce qui nous donne une facilité d'adaptation dans notre suivi parce que c'est évident qu'on ne va pas prendre en charge de la même façon une institutrice qui a eu un diabète, qui a bien suivi ses trucs et quelqu'un qui parce que le diabète c'est quand même un peu compliqué comme maladie, il faut quand même la comprendre! Je trouve que ça c'est notre supériorité à nous, c'est de connaître les gens. Entretien individuel du 27/09/2018 Etaient présents : Lou Gyurka, chercheuse (LG) et un médecin généraliste (M12) : homme >60 ans, cabinet de groupe semi-rural, formation d'hypnose et de médecine du sport, maître de stage. L'entretien a duré 18 minutes. « LG : Je fais une thèse sur le suivi des médecins généralistes sur les patientes qui sortent de la maternité après l'accouchement, quand elles reviennent en cabinet de médecine générale, c'est un recueil d'expérience, sur comment tu fais lorsque tu les revois Est-ce que tu fais un peu de gynécologie, suivi de grossesse, suivi de bébés - M12 : Gynécologie un petit peu, suivi de grossesse oui, je le fais régulièrement, jusqu'au quatrième mois de grossesse je les suis, ensuite je les suis en binôme avec la maternité. S'il y a la moindre complication je vais l'adresser soit immédiatement, dès la première consultation, en maternité mais si tout va bien, comme souvent, je fais jusqu'au quatrième mois et au quatrième mois le binôme, voi là . Et je les vois pour tous les petit s problèmes intercurrents : elles viennent au cabinet et on s'en occupe . - LG : Quand elles quittent la maternité, voilà elles ont accouché, comment tu as de leurs nouvelles et comment ça se passe en général quand tu les revois la première fois après ? - M12 : Bah écoute c'est une bonne question, je les revois pas beaucoup en fait. Je pense que je les revois parce que je vois leur enfant. Donc ça peut être très rapidement après la sortie de la maternité, par exemple une semaine après la sortie, je vois souvent les femmes accompagnées de leur enfant et elles viennent pour leur enfant, elles ne viennent pas pour elle. Alors évidemment lors de cette consultation je leur parle toujours d'elles aussi hein, bien sûr, comment elles vont, comment ça s'est passé Mais pour elles en tant que femmes, il y en a très peu qui viennent me consulter, extrêmement peu C'est toujours pour me « présenter » l'enfant, on va dire entre une semaine et un mois après l'accouchement. - LG : Et du coup pendant la consultation qui est pour le bébé, tu abordes des thèmes qui sont plus centrés sur la maman? - M12 : Eh bien non Tu imagines quand elles arrivent avec le petit bébé, je vais me centrer sur le petit bébé, c'est quand même lui sur lequel on va fixer toute notre attention, c'est une consultation toujours un peu exceptionnelle, elles viennent nous le présenter, et puis en plus nous il faut qu'on ait un regard médical donc il faut rester très concentré quand même, mais par contre je leur pose toujours comme je disais quelques questions sur elles : comment s'est passée la fin de grossesse parce que souvent je ne les ai pas vues, comment s'est passé l'accouchement, mais souvent ça va être très rapidement : ça s'est bien passé ou il y a eu ceci cela, et si je vois qu'il y a eu des gros soucis je leur demande de revenir elles, mais seulement elles Je préfère qu'elles reviennent carrément sans le bébé mais des fois c'est difficile, après on peut très bien imaginer que le bébé soit dans son petit berceau, dans son petit couffin et dorme à côté, à la limite Mais si tout 130 s'est bien passé je me dis « Bah très bien! » et puis je ne vais pas plus loin, effectivement. Je ne leur demande pas de revenir systématiquement. Récemment je ne me souviens pas de problème particulier - LG : Tu as l'impression qu'elles sont amenées à retourner voir le gynécologue qui les a accouchées ou la sage-femme? - M12 : Non, non. Ou alors quelques fois, il y a en a de plus en plus, maintenant qu'il y a quelques sages-femmes libérales, je pense qu'il y en a quelques-unes à qui on a dû donner une adresse à la sortie de la maternité, et il y en a quelques-unes qui vont voir une sage-femme libérale, ça bien sûr quand il n'y a pas eu de gros problème, sinon ils les revoient directement dans le service. Mais si tout s'est bien passé il y en a quelques-unes qui vont voir une sage-femme en libéral, voilà. - LG : Ma thèse est plus particulièrement sur comment on suit les patientes qui ont eu un diabète gestationnel, comment on les suit au long cours Est-ce que dans les patientes que tu as pu voir qui avaient un diabète gestationnel, est-ce que tu te sens à l'aise pour les suivre après? - M12 : A l'aise je ne sais pas Oui, c'est-à-dire, celles qui ont eu un diabète gestationnel, je vais les revoir bien sûr, on va en reparler et puis je n'ai pas une idée très précise de la conduite à tenir, bien sûr je vais leur faire un contrôle dans les mois qui viennent au niveau sanguin et puis ça va un petit peu s'arrêter là je pense Je vais les revoir pour une autre raison, pas dans le cadre de cette pathologie-là. Parce qu'elles ont mal à la tête, qu'elles ont une virose, d'autres choses et voilà A ce moment-là ces femmes, de toute manière dans les bilans un petit peu de base quand quelqu'un ne va pas bien etc., il y aura de toute manière une glycémie. Mais je dois dire que je ne fais rien d'autre. Si la glycémie est normale je la recontrôlerai plus tard mais je ne le prévoirai pas, mais comme ça fait un peu partie de la biologie de base donc c'est une femme qui aura automatiquement, à l'échelon d'une vingtaine d'années, elle aura un certain nombre de glycémies pendant ces vingt ans Par contre si au cours des on va dire des vingt ans qui suivent, si je vois qu'il y a des glycémies limites je vais poser des questions bien sûr. Et même si je ne me souviens pas qu'il y a eu un diabète gestationnel, je vais Est-ce que c'est noté dans mes antécédents, j'aimerais bien que ça le soit [rires], mais je crois que ça ne l'est pas à chaque fois, mais je pense que ça serait effectivement une bonne chose parce là mon attitude sera beaucoup plus « incisive » s'il y a eu un antécédent de diabète gestationnel, ce qui veut dire que je mettrai beaucoup plus vite un traitement. - LG : Et comment tu es au courant de cet antécédent, ce sont les patientes qui te le disent, c'est toi qui pose la question? - M12 : C'est une bonne question Depuis quelques années je vais y faire plus attention, en maternité ils nous ont dit d'y faire plus attention et le suivi du diabète pendant la grossesse, je vais y être plus attentif on va dire. D'entrée de jeu, chez les femmes qui sont déjà un peu en surpoids, je vais y faire extrêmement attention, elles auront des glycémies dès leur début de grossesse et puis j'essaye de leur faire des mesures diététiques avec l'aide de diététiciennes, là maintenant c'est systématique, ce que je ne faisais pas avant. Donc je suis au courant parce que c'est moi qui fais le diagnostic. Et quand le diabète ge stationnel est av éré, bien sûr elles sont prises en charge à la maternité avec les e ndocrinolog ues de l 'hôpital. Alors d'autres fois, elles me le disent, tout s implement, si je n'avais pas forcément fait le diagnostic ou que, comme le suivi est un peu en binôme, des fois elles sont plus suivies par la maternité, des fois je ne savais pas qu'il y a avait ce 131 diabète gestationnel. Généralement elles me le disent et moi , à tous les accouchements , oui on peut dire tous, qu 'ils so ient à l'hôpital ou dans les cliniques, je reçois un compterendu et c'est indiqué. Et souvent, très souvent, celles qui ont eu un diabète gestationnel elles m'en parlent! Parce que le traitement est souvent un petit peu lourd et donc elles m'en parlent. - LG : D'accord. Et généralement , tu penses qu' elles ont compri s le risque de complications à long terme? - M12 : Je n'en suis pas si sûr Je pense que pour certaines elles ont compris que ça peut être un déclencheur de diabète et d'autres non L'enjeu pour le bébé elles ont toutes compris, ça c'est sûr, ou à 99% mais pour la suite assez moyennement Je ne suis pas sure qu'elles se rendent bien compte qu'elles sont plus à risque de diabète que d'autres. Et le risque de récidive pour les prochaines grossesses, là oui, absolument. - LG : Pour la prévention est-ce que tu as du mal à revoir les patientes régulièrement pour des consultations de prévention, est-ce que tu les vois surtout pour des problèmes aigus ou est-ce que tu arrives à les voir aussi pour la prévention? - M12 : Les patientes ne viennent pas pour la prévention, non. Je vais en faire systématiquement à chaque consultation, j'arrive toujours à prendre un peu de temps, je pense que c'est une grosse partie de notre travail, c'est-à-dire que dans une consultation de base, on va profiter des petites pathologies on va dire, quelqu'un qui vient pour une virose je vais passer trois minutes pour la virose et un quart d'heure sur tout le reste en fait, c'est vraiment notre travail Je fais ça quand elles viennent pour une autre pathologie et ce qui était très bien mais qu'on voit moins maintenant c'est les certificats sportifs qui nous permettaient de faire de la prévention à 95% de la consultation, c'était vraiment super - LG : Et au niveau des recommandations pour le diabète gestationnel qui ont changé il y a quelques années, qu'est-ce que tu en penses et comment tu trouves que les patientes le vivent? - M12 : Elles trouvent qu'on s'occupe d'elles, elles sont contentes, enfin je veux dire il n'y a pas de souci pour un certain nombre mais pour d'autres elles trouvent que le traitement est trop important, qu'on leur demande d'en faire trop, de se contrôler trop Il y en a certaines, très franchement, je les ai vues abandonner leur traitement, abandonner les suivis, annuler les consultations Parce qu'elles trouvaient ça trop, comment on pourrait dire, trop incisif, ça ne leur plaisait pas cette façon trop trop rigide de voir cette pathologie. Pour elles, elles continuaient à vivre, et puis zut. J'en ai vu un certain nombre, j'en ai deux en tête, qui ont arrêté les suivis et qui m'ont dit « Je vis ma vie, je fais un petit peu attention, mais sinon terminé! ». Entretien individuel du 18/10/2018 Etaient présents : Lou Gyurka, chercheuse (LG) et un médecin généraliste (M13) : homme, installé depuis 5 ans 1⁄2, exerçant en cabinet de groupe semi-rural, maître de stage, sans formation complémentaire particulière mais participant à des formations médicales continues régulières, par exemple avec le CHEM (Collège des Hautes Etudes Médicales). L'entretien a duré 19 minutes. « LG : Est-ce que tu fais un peu de gynécologie, est-ce que tu suis des grossesses et estce que tu suis des bébés? - M13 : Alors, suivre des bébés, oui! Suivre des grossesses Premier trimestre oui, deuxième trimestre assez souvent et troisième trimestre non, ce sont les maternités qui généralement prennent le dessus. Les grossesses je les suis oui, c'est plus sur la gynécologie pure et dure Déjà je ne pose pas de stérilet, je ne pose pas d'implant, déjà ça limite un petit peu et sur les frottis il y a des femmes qui préfèrent voir ma collègue femme plutôt que moi, ma collègue était d'accord donc j'ai quelques patientes qui s'éclipsent vers elle pour leur suivi gynécologique. - LG : Quand tu as suivi la grossesse, ou que tu ne l'as pas suivie, la femme accouche, après elle vient te revoir? - M13 : Pour elle moins souvent C'est plus pour le bébé généralement, alors des fois on arrive quand même à avoir cette double consultation où elle pense à prendre rendez-vous et pour elle et pour l'enfant mais le plus souvent je les revois au moment d'une consultation pour le bébé, après c'est vrai que ça n'empêche pas, même si la consultation est pour le bébé, qu'on puisse poser deux-trois questions pour elles, savoir comment ça se passe, mais finalement les consultations dédiées à la femme pour le retour c'est moins fréquent. Peut-être un peu plus chez les femmes allaitantes, de mon expérience c'est ce que j'ai repéré, souvent elles sont un peu plus en demande de conseils, et puis il y a souvent un peu plus de petits problèmes autour des petites mastites et tout ça Donc peut-être un peu plus chez les allait antes mais c'est vrai que ce n'est pas très très fréquent. Généralement je les vois au maximum à la consultation des un mois mais ça arrive assez souvent, et surtout pareil chez les allaitantes, des pesées qui peuvent se faire à la PMI mais je vois que bien souvent elles aiment bien venir au cabinet donc je les vois toutes les semaines pour la pesée du bébé au moins le premier mois - LG : Et toi, tu leur poses quel genre de questions pour elles? - M13 : Pour elles, déjà essentiellement la fatigue, à la fois physique et psychologique parce que bon il y a toujours le baby blues, les dépressions du post-partum, le manque de sommeil qui peut quand même conduire aussi à des troubles psychologiques dans les suites immédiates d'une grossesse, fatigue physique aussi avec l'anémie si jamais elles ont perdu beaucoup de sang Après voilà sur l'allaitement, oui ou non, alors si elles sont allaitantes savoir s'il y a des douleurs mammaires ou pas, au niveau de la cicatrisation du 134 périnée, si jamais elles ont eu une épisiotomie est-ce qu'il n'y a pas de souci à ce point de vue-là, si jamais il y a des dyspareunies s'il y a de nouveau des rapports S'il y a une césarienne la cicatrice de césarienne Chez les femmes qui ont eu une césarienne, c'est vrai qu'il y a plus souvent des consultations dédiées aussi même si les infirmières et les sages-femmes sont généralement bien formées à ça. Oui c'est ça , saignements, fatigue, baby- blues Si jamais il y a un all aitement artifici el est-ce que l'arrêt de l'éco ulement du lait s'est bien pass é Si elles étaient rhésus négatif le RAI, ce genre de choses Après tout dépend s'il y avait des pathologies préexistantes à la grossesse et qui pourraient avoir des répercussions a posteriori ou des pathologies liées à la grossesse en elle-même, un diabète gestationnel et tout ça Après c'est vrai que c'est toujours un peu difficile - LG : Et toutes ces questions-là tu as le temps de les poser pendant la consultation du bébé? - M13 : [Rires] Non, ça fait bien sur le papier Alors des fois quand on les revoit de manière régulière toutes les semaines pendant un mois c'est plus intéressant, c'est des choses qui peuvent se mettre en place, typiquement pendant qu'elles déshabillent le bébé, enfin forcément on a aussi beaucoup de questions sur le bébé en lui-même, sur l'alimentation, sur les tétées, sur le machin Mais ce n'est jamais dans la même consultation qu'on arrive à aborder tout ça, mais elles aussi ont parfois des questions, ce sont elles qui amènent le sujet et pas forcément moi qui vais creuser. - LG : As-tu l'impression que parfois elles sont suivies pour le post-partum à l'hôpital ou par une sage-femme en libéral? - M13 : Par une sage-femme libérale oui, après je ne pourrais pas te le chiffrer en pourcentage mais ça arrive assez fréquemment, par l'hôpital ça n'arrive pas si souvent, mais pour les sages-femmes libérales je dirais une fois sur deux voire un peu plus Autant pour le bébé, c'est vrai qu'elles nous les confient assez facilement en tant que médecin généraliste, après c'est peut-être mon statut en tant qu'homme, mais pour leur suivi à elles il y a aussi encore beaucoup le réflexe du « suivi gynéco ». Elles ont du mal à comprendre qu'en tant que médecin généraliste on a aussi les capacités de faire les suivis gynécologiques, c'est un peu comme l'ophtalmo, ça reste séparé dans leur tête, même quand tout se passe bien Et là j'ai l'impression que les sages-femmes attrapent un peu ce créneau là aussi parce que les gynécologues sont moins disponibles - LG : Ma thèse porte plus particulièrement sur les patientes qui ont eu un diabète gestationnel, quand elles ont accouché, qu'elles rentrent à la maison, est-ce que tu te sens à l'aise pour les suivre après leur accouchement? - M13 : Oui, le diabète gestationnel ce n'est pas un sujet qui me pose problème, moi j'aime bien le diabète, même pour la prise en charge du diabète gestationnel en lui-même ça ne me gêne pas beaucoup, après oui le fait qu'elles aient un diabète gestationnel augmente très fortement leur risque de diabète plus tard donc ça moi c'est un truc à noter dans le dossier médical pour surveiller les glycémies à jeun de manière plus fréquente et à voir aussi dans la famille est-ce qu'il y a des antécédents de diabète, pour évaluer le risque - LG : As-tu l'impression que les patientes ont compris leur maladie, le risque de complications à long terme? - M13 : [Rires] C'est clair que non!!! Pour elles, elles ont l'impression que c'est juste un accident de la grossesse, on a beau leur dire, je sais que je leur dis en retour quand elles 135 ont appris qu'il y avait un diabète gestationnel, je leur dis forcément « Il faudra vous surveiller là-dessus, vous êtes plus à risque!», mais ça leur paraît lointain parce que le diabète de type II c'est souvent un truc de personnes de 50 – 60 ans et elles ont 25 – 30 ans donc je n'ai pas le sentiment qu'elles se sentent particulièrement concernées - LG : Comment tu l'apprends, qu'elles ont eu un diabète gestationnel? - M13 : Le diabète gestationnel globalement c'est quand même difficile à gérer, ça demande une éducation thérapeutique importante et souvent elles sont demandeuses de conseils donc là je trouve qu'on récupère quand même un rôle en tant que médecin généraliste, on est souvent plus formés peut-être que les sages-femmes sur le diabète donc on devient un intermédiaire privilégié pour cette prise en charge : pour les techniques d'injections, savoir s'il faut en faire un peu plus, un peu moins, la gestion des hypoglycémies, la diététique, l'activité physique, comment ça influence C'est des trucs où souvent elles sont complètement perdues. Quelqu'un qui est diabétique va avoir des mois et des années pour apprendre à connaître sa maladie alors que ces patientes ne vont avoir que quelques mois donc c'est vrai qu'elles sont un peu perdues là-dedans mais j'ai l'impression que souvent elles vivent ça un peu comme un accident de la grossesse mais que c'est bon, quand elles ont accouché c'est fini Donc quand elles ont un diabète gestationnel je dirais que je les vois peut-être un peu plus mais quand il y a d'autres complications de grossesse je les vois plutôt un peu moins Après je n'en ai pas vues énormément, des patientes avec un diabète gesta Dernièrement j'ai surtout suivi une patiente chez qui on a découvert un diabète de type I pendant la grossesse - LG : Une fois qu'elles ont accouché, tu as du mal à faire de la prévention, à les revoir régulièrement, à long terme? - M13 : Ça c'est difficile C'est déjà des patientes qui consultent énormément pour le bébé alors c'est difficile de dire « On va se voir en plus. » parce que déjà on les voit quasiment tous les mois, souvent un peu plus avec la gastro, la rhino, le machin, s'il faut se voir pour elles en plus c'est compliqué, après sur le suivi à très long terme personnellement je n'ai pas encore d'expérience donc je ne pourrais pas te dire mais la prévention de manière générale dans notre système de santé, dans notre pays, un médecin c'est là pour guérir, la prévention c'est notre rôle à part entière mais c'est compliqué, ça c'est clair, il faut répéter, répéter, répéter C'est vrai qu'on a quelques consultations comme les frottis, et j'aime bien les consultations de certificats de sport, même si ça ne m'est presque jamais arrivé de dire qu'ils n'étaient pas capables de faire du sport, mais ces consultations-là permettent de faire de la prévention, ça laisse du temps médical pour faire de la prévention, le point sur la vaccination tout ça Et c'est dommage, c'est en train de passer un peu à l'as avec ces certificats qui sont valables pour trois ans, on perd un peu de temps pour la prévention. Et quand elles ont une grippe, qu'elles ont 40° de fièvre en train de frissonner elles ne sont pas capables d'entendre d'autres messages - LG : Est-ce que tu as des idées d'amélioration pour suivre plus facilement ces femmes au long cours? - M13 : C'est pas évident, je reste persuadé que c'est le médecin traitant qui reste le pivot de l'organisation de ça et c'est plus à nous de nous organiser pour savoir comment on peut faire passer les messages C'est difficile un diabète gestationnel parce qu'elles ne sont pas malades, pour elles, elles ne sont plus malades, nous on sait que ça risque, même si ce n'est pas obligé, que ça risque de ressortir dans peut-être dix ans, peut-être 136 quinze ans, peut-être vingt ans après mais à part les conseils qu'on donne à tout le monde, de diététique et d'activité physique, on n'a pas grand-chose d'autre à faire que de surveiller leurs glycémies à jeun, c'est un peu différent que pour d'autres pathologies chroniques pour lesquelles on peut faire intervenir des associations comme Maredia par exemple pour le diabète, ou les infirmières Asalée Mais leur parler régime, leur parler sport on essaye de le faire à tout le monde, même si on va essayer d'insister un peu plus dans ce contexte-là, surtout s'il y a d'autres facteurs de risque, si elles sont déjà en surpoids, si elles ont pris 25 kilos pendant la grossesse Après c'est toujours patient dépendant, des fois tu laisses des petits messages comme ça et tu ne te rends pas forcément compte de l'impact que ça peut avoir et elles reviennent t'en parler Oui, des fois, ça arrive, alors on disait pour la grippe pas forcément , mais des fois pour une gastro elles ont tout ce qu'il faut et elles viennent juste chercher l'arrêt de travail parce qu'effectivement elles ne peuvent pas travailler et des fois elles, elles ré-abordent des sujets J'ai plus en tête l'arrêt du tabac. Ça m'arrive assez souvent qu'elles viennent pour une rhino ou pour une gastro et finalement on passe C'est toujours assez long Enfin c'est une consultation qui aurait pu durer cinq minutes et finalement elle en dure 25 parce qu'on passe 20 minutes sur l'arrêt du tabac. Mais ça peut être l'occasion d'aborder ce genre de problèmes-là. Liste de codes I – Suivi post-partum en général Pratique de la gynécologie / suivi de grossesses (9 codes) interetgynecologie suivigrossesse>oui suivigrossesse>non suivigrossesse>moinsquavant suivigrossesse>huitiememois suivigrossesse>hopital suivigrossesse>choixpatiente suivipp>femme suivipp>bebe Organisation de la consultation du post-partum (5 codes) consultpp>sansbebe consultpp>avecbebe consultpp>programmationpendantgrossesse consultpp>pendantconsultbebe consultpp>priseRDVpendantconsultbebe Thèmes abordés lors de la consultation du post-partum (14 codes) consultpp>vecufingrossesse consultpp>vecuaccouchement consultpp>allaitement consultpp>relationmerebebe consultpp>humeur consultpp>viequotidienne consultpp>rapportssexuels consultpp>examencliniquecomplet consultpp>cicatrices consultpp>perinee consultpp>contraception consultpp>frottis consultpp>vaccins consultpp>pathologiesgenerales Difficultés à réaliser la consultation du post-partum (6 codes) perdudevuefemme>suivimaternite perdudevuefemme>suivimedecinfemme perdudevuefemme>suivisagefemme perdudevuefemme>prioritebebe perdudevuefemme>retardconsult perdudevuefemme>manquetemps 138 II – Suivi des femmes aux antécédents de diabète gestationnel Acteurs du suivi (3 codes) acteurssuiviDGpp>endocrino acteurssuiviDGpp>maternite acteurssuiviDGpp>MT Le médecin traitant, acteur privilégié d'une prise en charge à long terme (6 codes) suiviDGpp>connaissancestheoriques suiviDGpp>connaissancerecos patienteconnue patienteconnue>conjoint patienteconnue>famille patienteconnue>PECindividualisee Modalités du suivi (7 codes) suiviDGpp>suiviclinique suiviDGpp>suivibiologique suiviDGpp>informationpatiente suiviDGpp>educationtherapeutique suiviDGpp>PECautresFdR suiviDGpp>contra suiviDGpp>preparationfuturegrossesse Organisation du suivi (4 codes) suiviDGpp>suivienfant suiviDGpp>suivilorscsaigu suiviDGpp>suivilorscscertifsport suiviDGpp>suivigynecohabituel III – Difficultés rencontrées lors du suivi des femmes aux antécédents de diabète gestationnel En rapport avec la patiente (14 codes) perdudevuefemmeDG>suivihopital perdudevuefemmeDG>lassitudesuivi vecusuivigrossesseDG>mauvais vecusuivigrossesseDG>restriction vecusuivigrossesseDG>culpabilite perdudevuefemmeDG>normalisationglycemie perdudevuefemmeDG>arretinsuline perdudevuefemmeDG>disparitionrisquebebe perdudevuefemmeDG>manqueinfocompliclongterme perdudevuefemmeDG>manqueinfobesoinsuivi perdudevuefemmeDG>perteordonnance perdudevuefemmeDG>peurdiabete perdudevuefemmeDG>absencecsprevention perdudevuefemmeDG>pasdeproblemechronique En rapport avec le médecin (8 codes) difficultemedecin>incertituderisquecomplications difficultemedecin>incertitudemodalitesuivi 139 difficultemedecin>manquehabitude difficultemedecin>oubli difficultemedecin>mefiancerecos difficultemedecin>peurdeculpabiliser difficultemedecin>preventionlongterme difficultemedecin>eductherapeutiquechronophage En rapport avec le système de santé (9 codes) difficultesystemesoin>multipliciteprotocoles difficultesystemesoin>variationrecos difficultesystemesoin>multipliciteacteurs perdudevuefemmeDG>suivihopital difficultesystemesoin>organisationRDVhopital difficultesystemesoin>rupturebrutalesuivimaternite difficultesystemesoin>manquecommunicationspecialistes difficultesystemesoin>PECpluridisciplinnaireambulatoire difficultesystemesoin>nonremboursementdiet IV – Idées d'amélioration Meilleure réorientation par la maternité (6 codes) supportinfo>anticiperlorsdiagDG supportinfo>oraleppimmediatmaternite supportinfo>papier supportinfo>reunionppmaternite collaboration> accouchement collaboration>protocolesmaternite Collaboration en ambulatoire (8 codes) collaboration>groupesdepairs collaboration>groupesdeFMC collaboration>dossierinformatisepartage collaboration>rappelsdossier collaboration>pluridisciplinnaireambulatoire collaboration>IDEasalee collaboration>sagefemme collaboration>dieteticien Responsabilisation des patientes (2 codes) responsabilisationpatientes vecusuivigrossesseDG>prisebonneshabitudes Information par les médias (1 code) supportinfo>medias 140 RESUME Le diabète gestationnel est un facteur de risque important de diabète de type II et de complications cardio-vasculaires. Les taux de dépistage dans le post-partum étaient faibles, ce qui constituait une perte de chance pour les patientes. Notre objectif était d'explorer les freins rencontrés par les médecins généralistes dans le suivi à long terme des patientes aux antécédents de diabète gestationnel et de recueillir des idées d'amélioration pour ce suivi. Nous avons réalisé une étude qualitative par entretiens collectifs et individuels auprès de médecins généralistes normands. Le suivi post-partum était complexe à organiser pour la mère, les soins se concentrant sur le bébé. Le rôle central du médecin traitant pour réaliser ce suivi individualisé était souligné. Les patientes s'impliquaient peu dans ce suivi du fait d'un manque d'information sur le risque de complications à long terme et de difficultés d'organisation.
48,756
22bcd162279ae8f9e9bac4bb96de1ebe_11
French-Science-Pile
Open Science
Various open science
2,009
Contribution des secteurs clés à la croissance globale de la productivité
None
French
Spoken
6,806
19,364
Tous les pays de l’OCDE appliquent les lignes directrices de l’OIT pour mesurer l’emploi, mais les définitions opérationnelles utilisées dans les enquêtes nationales sur la population active varient légèrement en Islande et en Turquie. En outre, il est probable que les niveaux d’emploi sont influencés par les changements dans la conception et/ ou la conduite de l’enquête, mais il y a de fortes chances pour que les taux d’emploi soient relativement cohérents dans le temps. Il est à noter que la composition de l’emploi non salarié selon les quatre catégories susmentionnées varie considérablement entre les pays. Ainsi, dans les pays qui comptent un assez grand nombre de petites exploitations agricoles, comme le Brésil, le Mexique et la Turquie, les aides familiaux non rémunérés sont également plus nombreux. Source • OCDE (2007), Statistiques de la population active, OCDE, Paris. Pour en savoir plus Publications analytiques • OCDE (2000), « The Partial Renaissance of the SelfEmployed », Perspectives de l’emploi de l’OCDE, chapitre 5, OCDE, Paris, p. 165-213. • OCDE (2005), Perspectives de l’OCDE sur les PME et l’entrepreneuriat – Édition 2005, OCDE, Paris. • OCDE (2007), Perspectives de l’emploi de l’OCDE, OCDE, Paris. Les niveaux et les variations de l’emploi non salarié total masquent des différences importantes entre les hommes et les femmes. Dans la moitié des pays membres, plus de 17 % des hommes pourvus d’un emploi étaient des non-salariés en 2006 ; la moitié des pays membres avait un taux d’emploi non salarié supérieur à 10% pour les femmes. Publications statistiques L’évolution de l’emploi non salarié fait également apparaître des divergences. Chez les hommes, l’emploi non salarié a augmenté dans cinq pays – en Belgique, en Autriche, en Allemagne, en République slovaque et en République tchèque. Chez les femmes, il a diminué dans tous les pays. Sites Internet 136 • OCDE (2004), Statistiques trimestrielles de la population active, OCDE, Paris. Bases de données en ligne • Statistiques de l’emploi. • OCDE Direction de l’emploi, du travail et des affaires sociales, www.oecd.org/els. • OCDE Entrepreneuriat au niveau local, www.oecd.org/tds/ leed/entrepreneurship. 6.3 6.5 6.4 6.3 6.8 7.7 7.9 8.4 8.6 9.7 12.0 12.6 République tchèque 9.4 10.6 12.0 12.2 12.4 13.8 14.5 15.2 15.2 16.1 17.3 16.9 16.1 16.2 Royaume-Uni 15.6 15.7 15.6 14.9 14.5 13.7 13.2 12.8 12.8 12.7 13.2 13.6 13.0 13.2 Suède 10.8 11.1 11.2 11.0 10.8 10.6 10.6 10.3 10.0 9.8 9.6 9.9 9.8 10.0 Suisse 12.7 12.7 12.7 13.4 13.9 14.0 14.0 13.2 12.9 12.5 11.9 11.4 11.2 11.2 Turquie 57.8 59.1 58.5 57.2 55.4 55.4 55.0 51.4 52.8 50.2 49.4 49.2 45.8 43.5 Total UE15 17.2 17.3 17.2 17.0 16.8 16.5 16.0 15.8 15.7 15.5 15.6 15.9 15.6 14.2 Total OCDE 19.7 19.8 19.4 19.2 19.0 18.6 18.3 17.6 17.5 17.3 17.2 17.3 16.9 16.0 Brésil 37.9 .. 38.6 37.0 37.8 37.7 38.5 .. 35.6 35.7 35.6 34.9 34.9 34.0 Chine .. .. .. .. .. .. .. .. 53.4 51.8 48.8 45.8 48.2 52.0 Fédération de Russie .. .. 1.9 2.1 2.9 2.9 8.0 7.6 6.0 5.9 5.7 5.8 6.1 6.0 1 2 http://dx.doi.org/10.1787/274046608842 Taux de travail indépendant : total En pourcentage de l’emploi civil total, 2006 60 50 40 30 20 10 Fé dé rat ion d Lu e R xe uss m ie b Ét our at g sU No nis r Da vèg ne e m ar Fr k an Ca ce na d Su a Pa ède ys -B a Ré S s pu A uis bli lle se qu ma e s gn lov e aq Ho ue ng Fin rie la A nd Ro ust e ya ral um ie eAu Uni tri ch J e To apo tal n UE Be 15 lgi qu Is e Ré pu Tot land bli al e qu OC e t DE ch èq No uv Ir ue ell lan e- d Zé e lan Es de pa g Po ne rtu Po gal log ne Ita lie Co ré e Br Me ésil xiq ue Gr èc Tu e rq uie Ch ine 0 1 2 http://dx.doi.org/10.1787/387515672725 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 137 TRAVAIL • EMPLOI EMPLOI NON SALARIÉ Taux de travail indépendant : hommes En pourcentage de l’emploi civil total, hommes 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Allemagne 11.9 12.3 12.5 12.7 13.0 13.1 13.2 13.4 13.4 13.6 14.0 14.9 14.9 14.7 Australie 19.0 18.3 17.9 17.6 17.4 17.1 17.1 16.7 16.6 16.7 16.3 15.9 15.6 15.6 Autriche .. .. 13.9 14.1 14.0 14.2 14.0 13.9 14.1 14.2 14.0 14.8 15.3 15.4 Belgique 19.4 19.6 19.7 19.9 19.9 19.6 19.5 19.2 19.7 19.6 19.8 19.6 19.8 19.9 Canada 12.1 12.0 11.8 12.2 12.5 12.9 12.5 11.7 11.2 10.8 11.0 10.8 10.5 10.2 Corée 35.4 34.7 34.3 34.4 34.7 36.3 36.1 35.7 36.0 35.7 35.3 34.4 34.0 33.2 .. .. 12.4 12.4 12.4 12.4 12.2 11.7 12.4 12.5 11.9 11.9 11.6 11.7 20.7 Danemark Espagne 26.9 27.0 26.2 26.1 25.3 24.4 23.2 22.2 21.9 21.3 20.7 20.5 20.8 États-Unis 10.9 10.3 9.9 9.8 9.5 9.2 8.9 8.6 8.5 8.4 8.8 8.9 8.8 8.6 Finlande 21.0 21.1 20.2 19.7 19.0 18.2 18.1 17.8 16.8 16.7 16.7 16.7 16.7 17.1 France 13.7 13.3 12.9 12.6 12.3 11.8 11.5 11.1 10.8 10.5 10.7 10.7 10.9 10.9 Grèce 47.7 47.6 47.4 46.9 46.8 44.9 43.8 43.7 42.1 41.4 41.0 39.4 39.1 39.1 16.0 Hongrie 21.9 21.9 22.1 22.6 21.5 19.9 19.5 19.2 18.1 17.3 17.1 17.9 17.3 Irlande 30.9 30.3 29.9 28.2 28.1 27.4 26.1 25.8 25.2 25.2 24.7 25.4 24.8 23.7 Islande 24.2 25.6 27.6 23.9 23.2 23.9 23.7 24.0 23.1 23.6 19.2 19.3 20.1 20.8 Italie 31.4 31.6 32.3 32.5 32.4 32.5 32.1 32.3 32.2 31.7 31.5 32.4 31.2 30.8 Japon 16.6 16.4 16.1 15.8 15.9 15.6 15.8 15.5 15.0 14.8 14.7 14.7 14.5 13.9 34.4 Mexique 45.1 44.2 41.6 40.6 40.8 38.7 38.1 36.4 36.9 36.9 36.5 36.2 35.7 Norvège 13.3 12.8 12.1 11.4 10.9 11.0 10.3 9.8 9.4 9.7 10.1 10.3 10.2 11.7 Nouvelle-Zélande 26.3 25.8 25.4 25.8 24.9 25.5 26.4 25.9 24.9 24.5 24.6 24.0 23.0 22.0 12.9 Pays-Bas .. .. 13.7 13.8 14.0 13.3 12.7 13.4 13.0 13.5 13.5 13.3 13.1 Pologne 32.2 32.4 31.4 31.1 30.0 29.1 29.2 29.5 29.9 30.4 29.8 28.9 27.9 26.6 Portugal 27.4 29.0 29.9 30.3 30.0 29.3 28.2 27.5 28.4 28.1 28.3 27.8 26.7 25.5 16.7 République slovaque .. 8.6 8.7 8.7 8.4 9.1 10.4 10.8 11.3 11.8 13.0 16.0 17.2 République tchèque 12.0 13.7 15.1 15.7 15.9 17.3 18.4 19.1 19.1 20.3 21.7 21.5 20.4 20.3 Royaume-Uni 20.3 20.6 20.6 19.6 19.1 18.0 17.7 16.7 17.0 17.0 17.6 18.3 17.6 17.7 Suède 15.5 15.7 15.7 15.6 15.3 14.8 14.8 14.5 14.1 14.0 13.9 14.3 14.0 14.2 Suisse 12.4 12.5 13.3 14.0 14.1 14.6 14.6 13.8 13.6 13.0 12.4 11.9 11.7 11.6 Turquie 52.8 52.7 52.1 50.5 49.8 49.8 48.9 46.5 47.5 45.1 44.5 45.0 42.2 40.1 Total UE15 19.8 19.8 20.2 20.1 20.1 19.6 19.2 18.9 18.8 18.8 18.9 19.3 19.0 20.2 19.3 Total OCDE 21.6 21.4 21.0 20.9 20.8 20.4 20.1 19.5 19.5 19.3 19.4 19.5 19.1 Brésil 37.7 .. 38.8 38.2 39.0 39.2 40.0 .. 37.4 37.2 37.4 36.7 36.2 35.5 Chine .. .. .. .. .. .. .. .. 56.0 54.5 51.2 48.8 51.1 54.1 Fédération de Russie .. .. 2.3 2.5 3.2 3.2 7.5 7.3 5.8 5.8 5.8 6.0 6.3 6.2 1 2 http://dx.doi.org/10.1787/274047374404 Taux de travail indépendant : hommes En pourcentage de l’emploi civil total, hommes, 2006 60 50 40 30 20 10 Fé dé rat ion de R Ét ussi a ts e -U n Ca is na d Fr a an c S e Da uiss ne e m No ark rv Pa ège ys -B as Ja po n S All uèd em e ag Au ne tri Au che Ré str pu a bli H lie qu on e s gr lov ie aq u F Ro inla e ya nd um e To e-U tal ni OC Be DE l Ré g pu Tot iqu bli al e qu UE e t 15 ch èq Es ue pa g No uv Is ne ell lan e- de Zé lan d Irla e nd Po e rtu g Po al log ne Ita lie Co Me rée xiq ue Br és i Gr l èc Tu e rq uie Ch ine 0 1 2 http://dx.doi.org/10.1787/387603154637 138 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 TRAVAIL • EMPLOI EMPLOI NON SALARIÉ Taux de travail indépendant : femmes En pourcentage de l’emploi civil total, femmes 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 Allemagne 8.2 8.3 8.3 8.1 8.1 8.2 7.8 7.9 8.3 8.2 8.4 8.8 9.4 2006 9.3 Australie 13.1 12.6 12.1 11.9 12.2 11.4 11.1 10.7 10.3 10.5 10.0 9.9 9.8 9.8 Autriche .. .. 13.7 13.8 13.2 13.1 12.6 12.2 12.1 11.8 11.3 10.3 10.9 11.3 Belgique 18.1 17.7 17.6 17.4 16.9 16.2 15.7 15.3 15.5 15.4 15.2 15.0 14.5 14.6 Canada 9.0 9.2 9.1 9.7 10.2 10.4 9.8 9.2 8.4 8.5 8.4 8.0 8.1 7.9 Corée 41.7 40.7 40.4 40.1 39.8 41.4 39.7 38.4 37.6 36.5 34.5 33.4 32.9 32.3 Danemark .. .. 6.3 6.1 5.9 5.8 5.6 5.5 4.9 5.2 5.3 5.2 5.3 5.8 Espagne 24.4 23.6 23.2 21.9 20.2 19.6 17.8 16.6 16.2 15.1 14.5 14.3 14.5 13.8 États-Unis 6.4 7.1 6.9 6.9 6.7 6.4 6.2 6.1 6.1 5.9 6.1 6.1 5.9 6.0 Finlande 10.8 11.1 10.5 10.5 10.2 10.0 9.5 9.2 8.9 8.7 8.8 8.5 8.5 8.4 France 9.2 8.8 8.3 7.9 7.5 7.3 7.1 6.9 6.7 6.8 6.7 6.8 6.9 6.9 Grèce 44.9 45.2 43.8 43.7 42.4 41.3 39.3 38.9 36.1 35.7 35.6 32.1 32.0 32.1 9.1 Hongrie 13.7 13.0 13.0 12.7 12.4 11.6 11.1 10.5 10.2 10.0 9.2 10.1 9.9 Irlande 10.8 10.0 9.7 9.6 9.5 9.6 9.2 9.0 8.0 7.5 7.6 7.8 7.4 6.7 Islande 10.7 10.4 10.6 11.5 11.4 11.2 10.8 11.0 9.7 8.7 8.0 8.3 7.4 7.6 Italie 24.3 24.2 23.8 23.6 23.2 23.0 22.6 22.0 21.6 21.2 21.1 22.2 20.6 20.5 Japon 22.8 22.0 21.5 20.4 19.9 19.8 19.3 18.3 17.2 16.3 15.8 15.3 14.9 13.7 Mexique 41.0 42.6 40.5 38.9 41.3 38.4 37.8 35.3 35.6 36.7 36.7 37.1 35.3 34.6 Norvège 6.6 5.8 6.1 5.7 5.1 5.3 5.0 4.8 4.7 4.2 4.3 4.3 4.5 4.9 Nouvelle-Zélande 14.8 15.3 15.3 14.9 14.1 14.3 15.0 14.7 14.0 13.3 13.2 13.6 13.4 12.5 Pays-Bas .. .. 10.7 10.6 10.7 9.8 9.4 10.2 9.5 9.1 9.1 8.9 8.6 8.6 Pologne 29.9 29.2 27.7 27.5 26.3 25.0 24.1 24.8 25.7 25.4 24.3 24.1 23.1 21.8 Portugal 22.4 25.0 26.0 25.5 26.5 27.5 26.6 25.6 24.4 24.9 24.7 24.8 23.5 23.3 République slovaque .. 3.4 3.8 3.5 3.8 4.0 4.4 4.7 4.9 4.7 5.9 7.1 7.0 7.3 République tchèque 6.2 6.8 8.0 7.9 8.0 9.2 9.6 10.2 10.2 10.7 11.5 10.9 10.4 10.9 Royaume-Uni 10.0 9.8 9.6 9.3 9.1 8.7 8.0 8.3 7.8 7.8 8.2 8.3 7.8 8.0 Suède 5.8 6.3 6.4 6.0 5.9 6.0 6.1 5.7 5.6 5.3 5.1 5.1 5.3 5.4 Suisse 13.1 13.0 12.0 12.6 13.5 13.1 13.2 12.4 12.0 11.7 11.3 10.7 10.7 10.7 Turquie 72.3 74.6 74.0 73.6 70.0 69.9 70.0 64.7 66.8 63.0 61.9 60.7 56.2 53.3 Total UE15 12.3 12.1 13.1 12.9 12.7 12.4 11.8 11.7 11.5 11.3 11.4 11.6 11.4 12.2 14.3 Total OCDE 16.7 17.2 17.1 16.8 16.7 16.2 15.8 15.1 14.9 14.7 14.4 14.4 14.0 Brésil 38.1 .. 38.4 35.3 36.1 35.5 36.3 .. 33.0 33.5 33.1 32.5 33.1 31.8 Chine .. .. .. .. .. .. .. .. 50.7 49.1 46.3 42.7 45.4 49.9 Fédération de Russie .. .. 1.4 1.6 2.5 2.4 8.5 8.0 6.1 5.9 5.5 5.6 6.0 5.7 1 2 http://dx.doi.org/10.1787/274100685300 Taux de travail indépendant : femmes En pourcentage de l’emploi civil total, femmes, 2006 60 50 40 30 20 10 Fé d ér at ion No rv èg e Su de ède Ru Da ssi ne e m Ét ark at sUn i Irla s Ré pu nd bli e qu Fra e s nc lov e aq u Isl e an de Ro Can ya ad um a eU Fin ni lan Pa de ys -B Ho as n All gri em e ag Au ne str Ré ali pu e bli qu Suis e t se ch èq Au ue tri No To ch uv tal e ell UE e- 15 Zé lan de Ja po Es n p To agn tal e OC Be DE lgi qu e Ita l i Po e log Po ne rtu ga l Br és il Gr èc e Co Me rée xiq ue Ch ine Tu rq uie 0 1 2 http://dx.doi.org/10.1787/387604881313 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 139 TRAVAIL • CHÔMAGE TAUX DE CHÔMAGE Chômage TRAVAIL La plupart des pays de l’OCDE publient des taux de chômage calculés sur la base du nombre de personnes inscrites dans les registres publics des demandeurs d’emploi. Comme ces données sont disponibles peu de temps après la fin du mois ou du trimestre auquel elles se réfèrent, elles sont en effet couramment utilisées comme des chiffres de « référence » du chômage dans de nombreux pays. Cependant, les règles d’inscription au chômage ne sont pas les mêmes dans tous les pays et les statistiques établies d’après cette source ne sont donc pas comparables au plan international. Les taux de chômage indiqués ici ont été calculés conformément aux lignes directrices du BIT et aux définitions qu’elles proposent pour le chômage et la population active. Définition Les chômeurs sont ceux qui déclarent ne pas avoir d’emploi, être disponibles pour travailler et avoir pris des dispositions pour chercher activement du travail au cours des quatre dernières semaines de référence. Les lignes directrices de l’OIT énumèrent les dispositions en question, qui comprennent notamment : réponses à des avis de vacance de poste, démarches sur les lieux de travail tels qu’usines ou chantiers de construction, publication de petites annonces dans les journaux et inscription auprès de bureaux de placement. Tendances à long terme Dans la plupart des pays de l’OCDE, les taux de chômage ont augmenté au début des années 90, mais ils se sont repliés depuis lors. Le recul a été particulièrement marqué en Australie, en Finlande, au Danemark, en Irlande et en Espagne. Les différences observées entre les taux de chômage des hommes et des femmes ne dénotent aucune tendance particulière. Le chômage est généralement plus élevé chez les femmes que chez les hommes, mais on observe aussi la situation inverse dans plusieurs pays – Canada, Hongrie, Corée, Suède et Royaume-Uni, par exemple. C’est également vrai au Japon pour les années récentes. Cela tient peut-être en partie au fait que lorsque le chômage est en hausse, les femmes se découragent plus facilement que les hommes et se retirent donc en plus grand nombre du marché du travail. Les graphiques rapportent les taux de chômage moyens sur les dix dernières années. En ce qui concerne le chômage total, les pays se classent en trois groupes : un premier groupe où les taux ne dépassent pas 5 % (Luxembourg, Suisse, Pays-Bas, Norvège, Corée, Autriche et Japon), un groupe intermédiaire où les taux sont compris entre 5 et 10 %, et un groupe où les taux de chômage sont en moyenne supérieurs à 10 % (Finlande, Grèce, Espagne, Pologne et République slovaque). 140 Le taux de chômage représente le nombre de chômeurs en pourcentage de la population active civile, celle-ci étant composée de tous les actifs occupant un emploi civil (personnes ayant travaillé au moins une heure au cours de la semaine précédant l’enquête) et des chômeurs. Quand le chômage est élevé, certaines personnes se découragent et cessent de chercher du travail. Elles sont alors exclues de la population active, ainsi le taux de chômage diminue, ou arrête d’augmenter, même si ça ne reflète pas une amélioration du marché du travail. Comparabilité Tous les pays de l’OCDE appliquent les lignes directrices de l’OIT pour mesurer le chômage, mais les définitions opérationnelles utilisées dans les enquêtes nationales sur la population active varient légèrement en Islande, au Mexique et en Turquie. En outre, il est probable que les niveaux de chômage sont influencés par les changements dans la conception et/ou la conduite de l’enquête, mais il y a de fortes chances pour que les taux de chômage soient relativement cohérents dans le temps. Source • OCDE (2007), Principaux indicateurs économiques, OCDE, Paris. Pour en savoir plus Publications analytiques • OCDE (2007), Panorama de la société : Les indicateurs sociaux de l’OCDE Édition 2006, OCDE, Paris. Publications statistiques • OCDE (2004), Statistiques trimestrielles de la population active, OCDE, Paris. • OCDE (2007), Perspectives de l’emploi de l’OCDE, OCDE, Paris. Bases de données en ligne • Statistiques de l’emploi. Sites Internet • Statistiques sur l’emploi de l’OCDE, www.oecd.org/ statistics/labour. • OCDE Politiques de l’emploi, www.oecd.org/els/employment. • Base de données OCDE des statistiques de la population active, www.oecd.org/statistics/labour. PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 TRAVAIL • CHÔMAGE TAUX DE CHÔMAGE Taux de chômage : total En pourcentage de la population active civile 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Allemagne 7.6 8.2 8.0 8.7 9.4 9.0 8.2 7.5 7.6 8.3 9.3 9.8 10.6 9.8 Australie 10.6 9.5 8.2 8.2 8.3 7.7 6.9 6.3 6.7 6.4 5.9 5.4 5.1 4.8 Autriche 4.0 3.8 3.9 4.3 4.4 4.5 3.9 3.6 3.6 4.2 4.3 4.8 5.2 4.7 Belgique 8.6 9.8 9.7 9.5 9.2 9.3 8.5 6.9 6.6 7.5 8.2 8.4 8.4 8.2 Canada 11.4 10.4 9.5 9.6 9.1 8.3 7.6 6.8 7.2 7.7 7.6 7.2 6.8 6.3 Corée 2.9 2.5 2.1 2.0 2.6 7.0 6.6 | 4.4 4.0 3.3 3.6 3.7 3.7 3.5 Danemark 9.5 7.7 6.8 6.3 5.2 4.9 5.1 4.3 4.5 4.6 5.4 5.5 4.8 3.9 Espagne 18.3 19.5 18.4 17.8 16.7 15.0 12.5 11.1 10.4 11.1 11.1 10.6 9.2 8.5 États-Unis 6.9 | 6.1 5.6 5.4 4.9 4.5 4.2 | 4.0 4.7 5.8 6.0 5.5 5.1 4.6 Finlande 16.2 16.8 15.1 14.9 12.7 11.4 10.3 9.6 9.1 9.1 9.1 8.8 8.3 7.7 France 11.1 11.7 11.1 11.6 11.5 11.1 10.5 9.1 8.4 8.7 9.5 9.6 9.7 9.5 Grèce 8.6 8.8 9.0 9.7 9.6 11.0 12.0 11.2 10.7 10.3 9.7 10.5 9.9 8.9 Hongrie 12.1 11.0 10.4 | 9.6 9.0 8.4 6.9 6.4 5.7 5.8 5.9 6.1 7.2 7.4 Irlande 15.6 14.3 12.3 11.7 9.9 7.5 5.7 4.3 4.0 4.5 4.7 4.5 4.3 4.4 Italie 9.8 10.6 11.2 11.2 11.3 11.4 10.9 10.1 9.1 8.6 8.4 8.0 7.7 6.8 Japon 2.5 2.9 3.1 3.4 3.4 4.1 4.7 4.7 5.0 5.4 5.3 4.7 4.4 4.1 Luxembourg 2.6 3.2 2.9 2.9 2.7 2.7 2.4 2.3 2.0 2.7 3.7 5.1 4.5 4.7 Norvège 6.6 6.0 5.4 4.8 4.0 3.2 3.2 3.4 3.6 3.9 4.5 4.4 4.6 3.5 Nouvelle-Zélande 9.5 8.1 6.3 6.1 6.6 7.4 6.8 6.0 5.3 5.2 4.6 3.9 3.7 3.8 Pays-Bas 6.2 6.8 6.6 6.0 4.9 3.8 3.2 2.8 2.2 2.8 3.7 4.6 4.7 3.9 Pologne 16.3 16.9 15.4 14.1 | 10.9 10.2 13.4 16.1 18.2 19.9 19.6 19.0 17.7 13.8 Portugal 5.6 6.9 7.3 7.3 6.8 | 5.1 4.5 4.0 4.0 5.0 6.3 6.7 7.6 7.7 .. 13.7 13.1 11.3 11.9 | 12.6 16.3 18.8 19.3 18.6 17.6 18.2 16.3 13.3 République slovaque République tchèque 4.4 4.3 4.1 3.9 4.8 | 6.4 8.6 8.7 8.0 7.3 7.8 8.3 7.9 7.1 Royaume-Uni 10.2 9.3 8.5 7.9 6.8 6.1 5.9 5.3 5.0 5.1 4.9 4.7 4.8 5.3 Suède 9.0 9.4 8.8 9.6 9.9 8.2 6.7 5.6 4.9 4.9 5.6 6.3 7.3 | 7.0 Suisse 3.9 3.9 3.5 3.9 4.2 3.6 3.0 2.7 2.6 3.2 4.2 4.4 4.5 4.0 Total UE15 10.0 10.4 10.0 10.1 9.9 9.3 8.6 7.7 7.2 7.6 8.0 8.1 8.2 7.7 Total OCDE 7.8 | 7.6 7.2 7.2 6.9 6.9 6.7 6.2 6.4 6.9 7.1 6.9 6.7 6.1 .. .. 13.3 12.5 10.2 11.1 | 12.2 16.3 19.0 19.8 18.6 17.4 17.4 15.4 12.2 5.8 République slovaque République tchèque 3.5 3.7 3.5 3.4 4.0 | 5.0 7.3 7.3 6.7 5.9 6.2 7.1 6.5 Royaume-Uni 12.1 11.0 9.9 9.2 7.6 6.8 6.5 5.8 5.5 5.6 5.5 5.0 5.2 5.7 Suède 10.7 10.8 9.7 10.1 10.2 8.4 6.6 5.9 5.2 5.3 6.0 6.5 7.4 | 6.9 Suisse 3.3 3.4 3.0 3.6 4.3 3.2 2.6 2.2 2.0 3.0 3.9 4.0 3.9 .. Total UE15 9.1 9.4 8.9 9.1 8.8 8.2 7.5 6.7 6.4 6.9 7.4 7.5 7.6 7.1 Total OCDE .. 7.3 6.8 6.8 6.4 6.4 6.2 5.8 6.1 6.7 6.9 6.7 6.4 5.9 Fédération de Russie .. .. 14.1 13.8 12.7 12.8 | 13.2 16.4 18.6 18.7 18.7 17.8 19.2 17.2 14.7 République slovaque République tchèque 5.4 5.2 4.8 4.7 5.9 | 8.1 10.3 10.3 9.7 9.0 9.9 9.9 9.8 8.9 Royaume-Uni 7.8 7.2 6.7 6.3 5.8 5.3 5.2 4.8 4.4 4.5 4.3 4.2 4.3 4.9 Suède 7.3 7.8 7.8 9.0 9.5 8.0 6.8 5.3 4.5 4.6 5.2 6.1 7.2 | 7.1 Suisse 4.7 4.5 4.1 4.2 4.1 4.0 3.5 3.2 3.4 3.4 4.5 4.9 5.1 .. Total UE15 11.2 11.6 11.4 11.4 11.3 10.7 9.9 8.9 8.3 8.5 8.8 8.9 8.9 8.5 Total OCDE .. 8.1 7.8 7.8 7.5 7.4 7.2 6.7 6.8 7.2 7.3 7.2 7.0 6.5 Fédération de Russie .. .. 9.2 9.3 11.5 13.0 12.9 10.4 8.6 7.6 8.0 7.5 7.0 6.8 1 2 http://dx.doi.org/10.1787/274216717605 Taux de chômage : femmes En pourcentage de la population active civile, femmes, moyenne 1996-2006 ou dernière période disponible 20 15 10 5 Co ré No e rv èg e Su iss e Lu Japo xe m n bo u Pa rg Ro ys-B ya um as eU Au ni tri c No Éta he uv tsUn ell eZé is la Da nde ne m ar k Irla nd Au e str ali e Su èd Ho e ng r Po ie rtu g To tal al OC Ré DE pu bli Can qu e t ada ch èq Fé dé Alle ue ra tio mag n d ne eR u To ssi tal e UE 1 Be 5 lgi qu Fin e lan de Fr an ce Ita Ré lie pu bli qu Grè e s ce lov aq u Es e pa gn Po e log ne 0 1 2 http://dx.doi.org/10.1787/387810818307 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 143 TRAVAIL • CHÔMAGE CHÔMAGE DE LONGUE DURÉE Le chômage de longue durée est, de toute évidence, un problème particulièrement préoccupant pour les pouvoirs publics. Sans même parler du stress que cette situation implique pour les chômeurs et leurs familles, des taux élevés de chômage de longue durée témoignent d’un mauvais fonctionnement du marché du travail et, dans les pays où les indemnités de chômage sont généreuses, ils font peser une très lourde charge sur les finances publiques. Définition Selon la définition convenue, le chômage de longue durée recense les personnes qui sont au chômage soit depuis 6 mois ou plus, soit, comme c’est le cas ici, depuis 12 mois ou plus. Les rapports calculés ici montrent la proportion de ces personnes au chômage à long terme parmi la totalité des chômeurs. Dans la plupart des pays de l’OCDE, la définition du chômage reprend les lignes directrices de l’OIT. Le chômage est généralement mesuré à l’aide d’enquêtes sur la population active menées auprès des ménages. Les chômeurs sont les personnes qui déclarent ne pas avoir travaillé contre rémunération, ne serait-ce qu’une heure, au cours de la semaine précédant l’enquête, qui sont disponibles pour travailler et qui ont activement cherché un emploi au cours des quatre semaines précédentes. Les lignes directrices de l’OIT précisent ce qu’il faut entendre par recherche active d’emploi. Comparabilité Tous les pays de l’OCDE appliquent les lignes directrices de l’OIT pour mesurer le chômage, mais les définitions opérationnelles utilisées dans les enquêtes nationales sur la population active varient légèrement en Islande et en Turquie. En outre, il est probable que les niveaux de chômage sont influencés par les changements dans la conception et/ou la conduite de l’enquête, mais il y a de fortes chances pour que les taux de chômage soient relativement cohérents dans le temps. Lorsque l’on compare les taux de chômage de longue durée, il importe de garder à l’esprit les différences institutionnelles entre les pays. Ces taux sont généralement plus élevés dans les pays où le chômage est indemnisé de façon relativement généreuse et sur de longues périodes. Dans les pays où les indemnités de chômage sont assez faibles et ne durent pas longtemps, les chômeurs sont sans doute plus vite amenés à revoir à la baisse leurs prétentions salariales ou à accepter des emplois qui, pour une raison ou une autre, leur paraissent moins intéressants que ceux qu’ils occupaient précédemment. Source • OCDE (2007), Statistiques de la population active, OCDE, Paris. Tendances à long terme En 2006, les taux de chômage de longue durée oscillaient entre 10 % ou moins en Corée, au Mexique, en Nouvelle-Zélande, en Islande, au Canada et aux États-Unis, et 55 % ou plus en République tchèque, en Belgique, en Allemagne, en Grèce et en République slovaque. Le chômage de longue durée est généralement plus modéré dans les pays qui ont enregistré des taux de croissance économique relativement élevés ces dernières années. Cette situation s’expliquerait apparemment par un lien de causalité réciproque : il est en effet plus facile de trouver du travail dans une économie en pleine expansion et cette expansion peut elle-même être plus rapide en rendant le chômage moins attrayant. Sur la période 1993-2006, le chômage de longue durée est resté relativement stable dans l’ensemble de la zone OCDE, mais il a fortement progressé dans plusieurs pays tandis qu’il accusait un recul non moins important dans d’autres. Ainsi, les taux de chômage de longue durée ont plus que doublé en République tchèque et au Japon. En revanche, depuis 1993, la proportion de chômeurs de longue durée a diminué plus que de moitié en Australie, en Corée et en Nouvelle-Zélande. 144 Pour en savoir plus Publications analytiques • OCDE (2002), « Le chômage de longue durée : tenants et aboutissants », Perspectives de l’emploi de l’OCDE, chapitre 4, OCDE, Paris, p. 203-264. • OCDE (2007), Perspectives de l’emploi de l’OCDE, OCDE, Paris. Publications statistiques • OCDE (2004), Statistiques trimestrielles de la population active, OCDE, Paris. Bases de données en ligne • Statistiques de l’emploi. Sites Internet • Statistiques sur l’emploi de l’OCDE, www.oecd.org/ statistics/labour. • Perspectives de l’emploi de l’OCDE, www.oecd.org/els/ employmentoutlook. • Base de données OCDE des statistiques de la population active, www.oecd.org/statistics/labour. PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 TRAVAIL • CHÔMAGE CHÔMAGE DE LONGUE DURÉE Chômage de longue durée Personnes sans emploi depuis 12 mois ou plus en pourcentage du nombre de chômeurs total 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 Allemagne 40.3 44.3 48.7 47.8 50.1 52.6 51.7 51.5 50.4 47.9 50.0 51.8 54.0 57.2 Australie 36.7 36.1 32.0 28.5 31.2 29.7 28.3 25.5 22.0 22.3 21.3 20.5 17.7 17.8 Autriche .. 18.4 29.1 24.9 27.5 30.3 29.2 25.8 23.3 19.2 24.5 27.6 25.3 27.3 Belgique 53.0 58.3 62.4 61.3 60.5 61.7 60.5 56.3 51.7 49.6 46.3 49.6 51.6 55.6 Canada 16.5 17.9 16.8 16.8 16.1 13.8 11.7 11.2 9.5 9.6 10.0 9.5 9.6 8.7 Corée 2.6 5.4 4.4 3.8 2.6 1.5 3.8 2.3 2.3 2.5 0.6 1.1 0.8 1.1 Danemark 25.2 32.1 27.9 26.5 27.2 26.9 20.5 20.0 22.2 19.7 19.9 22.6 25.9 20.4 29.5 Espagne 50.1 56.2 57.1 55.9 55.7 54.3 51.2 47.6 44.0 40.2 39.8 37.7 32.6 États-Unis 11.5 12.2 9.7 9.5 8.7 8.0 6.8 6.0 6.1 8.5 11.8 12.7 11.8 10.0 Finlande 30.6 .. 37.6 34.5 29.8 27.5 29.6 29.0 26.2 24.4 24.7 23.4 24.9 24.8 France 34.2 38.5 42.5 39.6 41.4 44.2 40.4 42.6 37.6 33.8 42.9 41.6 42.5 44.0 Grèce 50.9 50.5 51.4 56.7 55.7 54.9 55.3 56.4 52.8 52.7 56.3 54.8 53.7 55.6 Hongrie 33.5 41.3 50.6 54.4 51.3 49.8 49.5 49.0 46.6 44.8 42.2 45.1 46.1 46.1 Irlande 59.1 64.3 61.6 59.5 57.0 .. 55.3 .. 33.1 29.4 35.5 34.3 34.3 34.3 Islande 12.2 15.1 16.8 19.8 16.3 16.1 11.7 11.8 12.5 11.1 8.1 11.2 13.3 7.3 Italie 57.7 61.5 63.6 65.6 66.3 59.6 61.4 61.3 63.4 59.2 58.2 49.7 52.2 52.9 Japon 15.6 17.5 18.1 19.3 21.8 20.3 22.4 25.5 26.6 30.8 33.5 33.7 33.3 33.0 Luxembourg 31.6 29.6 23.2 27.6 34.6 31.3 32.3 22.4 28.4 27.4 24.7 21.0 26.4 .. Mexique .. .. 1.5 2.2 1.8 0.8 1.5 1.2 1.0 0.9 0.9 1.1 2.3 2.5 Norvège 27.2 28.8 24.2 14.2 12.4 8.3 7.1 5.3 5.5 6.4 6.4 9.2 9.5 14.1 Nouvelle-Zélande 33.3 32.7 25.7 20.8 19.3 19.3 20.9 19.3 16.7 14.5 13.5 11.7 9.4 7.1 Pays-Bas 52.4 49.4 46.8 50.0 49.1 47.9 43.5 .. .. 26.7 29.2 32.5 40.1 45.2 Pologne 39.1 40.4 40.0 39.0 38.0 37.4 34.8 37.9 43.1 48.4 49.7 47.9 52.2 50.4 Portugal 43.5 43.4 50.9 53.1 55.6 44.7 41.2 42.9 38.1 35.5 32.8 43.2 48.6 51.8 73.1 République slovaque .. 42.6 54.1 52.6 51.6 51.3 47.7 54.6 53.7 59.8 61.1 60.6 68.1 République tchèque 18.5 22.3 31.2 31.3 30.5 31.2 37.1 48.8 52.7 50.7 49.9 51.8 53.6 55.2 Royaume-Uni 42.5 45.4 43.6 39.8 38.6 32.7 29.6 28.0 27.8 22.9 22.8 21.4 22.4 22.1 Suède 15.8 25.7 27.8 30.1 33.4 33.5 30.1 26.4 22.3 21.0 17.8 18.9 14.1 14.2 Suisse 20.3 29.0 33.6 25.6 28.2 34.8 39.6 29.0 29.9 21.8 26.1 33.5 39.0 39.1 Turquie 46.8 45.9 36.4 44.3 41.6 40.3 28.2 21.1 21.3 29.4 24.4 39.2 39.6 35.8 Total UE15 44.1 48.4 50.3 49.4 50.2 49.2 47.5 46.9 45.3 41.5 43.4 42.4 43.5 44.2 Total OCDE 32.0 35.5 34.0 34.2 35.0 33.1 31.7 31.4 29.5 29.4 30.9 31.8 32.7 32.2 .. .. 29.7 32.6 38.2 40.7 47.0 46.2 39.2 39.2 37.6 39.0 38.5 41.7 Fédération de Russie 1 2 http://dx.doi.org/10.1787/274261407254 Chômage de longue durée Personnes sans emploi depuis 12 mois ou plus en pourcentage du nombre de chômeurs total, 2006 ou dernière année disponible 80 70 60 50 40 30 20 10 No uv Co r Me ée ell xiq e- ue Zé lan d Isl e an d Ca e na Ét at da sU No nis rv èg e Su è Au de st Da ralie Ro nem ya ar um k eU Fi ni Lu nlan xe de m bo u Au rg tri ch Es e p To agn tal e OC DE Ja po Irla n nd e T ur Fé qu dé ie ra tio Su n d iss eR e us s Fr ie To anc tal e U Pa E15 ys -B Ho as ng r Po ie log Po ne rtu Ré ga pu l bli qu Ita e t lie ch èq Be ue lgi qu e Ré G pu Al rèc l bli em e qu e s agn lov e aq ue 0 1 2 http://dx.doi.org/10.1787/387821856567 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 145 TRAVAIL • CHÔMAGE VARIATIONS RÉGIONALES DU CHÔMAGE Les taux de chômage varient sensiblement d’un pays de l’OCDE à l’autre mais les différences, importantes au niveau international, masquent des différences plus marquées encore entre régions. En 2004, les écarts entre régions en termes de taux de chômage étaient de plus de 10 points de pourcentage dans un tiers des pays de l’OCDE. Définition Sont considérées comme étant au chômage les personnes qui indiquent qu’elles sont sans travail, qu’elles sont disponibles pour travailler et qu’elles ont entrepris des démarches actives pour trouver un emploi au cours des quatre dernières semaines. Les Lignes directrices de l’OIT spécifient quelles sont les démarches qui comptent comme démarches actives pour trouver un emploi : il s’agit, par exemple, de répondre à une offre d’emploi, de se rendre dans une entreprise, sur un site de construction ou sur un autre lieu de travail, de mettre une annonce dans la presse ou de s’inscrire auprès d’un bureau de l’emploi. Le taux de chômage est défini comme le nombre de personnes au chômage en pourcentage de la population active, celle-ci étant composée des chômeurs et des personnes ayant un emploi. Lorsque le chômage est élevé, certaines personnes peuvent se décourager et cesser de chercher du travail. Elles cessent alors d’être prises en compte dans le taux de chômage qui peut baisser, ou cesser d’augmenter, alors même qu’il n’y a pas d’amélioration sous-jacente du marché du travail. Le coefficient de Gini donne une image fidèle des disparités régionales. Il rend compte non seulement des régions où le taux de chômage est le plus élevé et le plus faible, mais aussi des différences entre toutes les régions. Le coefficient de Gini peut prendre une valeur entre 0 et 1. Plus il prend une valeur élevée, plus les disparités régionales sont importantes. Les disparités régionales tendent à être sousestimées lorsque les régions sont de vaste dimension. Comparabilité Comme pour les autres statistiques régionales, la comparabilité des taux de chômage est affectée par les différences concernant le sens qui est donné au mot région (voir Population régionale) et par les différences dans la géographie des zones rurales et urbaines (voir PIB régional), à l’intérieur des pays et entre pays. En bref En 2004, l’Italie et l’Islande étaient les pays où le taux de chômage enregistrait les plus fortes disparités, avec un coefficient de Gini égal à 0.34. Selon ce coefficient, les disparités régionales étaient marquées, aussi, en Allemagne, en Belgique, au Canada et en République slovaque. Dans la plupart des autres pays, elles étaient proches de la moyenne pour la zone de l’OCDE (0.18). Il n’y a qu’en Suède, aux Pays-Bas, en Irlande et en Norvège que les taux de chômage reflètent une configuration régionale plus égale. Le pourcentage de la population active qui se trouve dans des régions où le taux de chômage est supérieur à la moyenne nationale indique quelle est la part de la population active, au niveau national, qui est affectée par les disparités régionales en termes de taux de chômage. En 2004, 48 % de la population active de la zone de l’OCDE se trouvaient dans des régions où le taux de chômage était supérieur au taux national. Les différences, notables au niveau international, en termes de taux de chômage masquent des différences plus marquées encore entre les régions. En Pologne, en Allemagne, en Italie, en République slovaque et en Espagne, les différences au niveau des taux de chômage régionaux dépassaient 18 points de pourcentage. Au Canada, en Finlande, en Turquie, en Belgique et en République tchèque, les différences étaient moindres mais toujours sensibles (supérieures à 10 points de pourcentage). Il n’y a qu’au Mexique, en Irlande, en Corée, aux Pays-Bas et en Norvège que les taux de chômage reflètent une configuration régionale plus égale. 146 Source • OCDE Base de données régionales. Pour en savoir plus Publications analytiques • OCDE (2001), Perspectives territoriales de l’OCDE, Édition 2001, OCDE, Paris. • OCDE (2003), Geographic Concentration and Territorial Disparity in OECD Countries, OCDE, Paris. • OCDE (2005), Local Governance and the Drivers of Growth, OCDE, Paris. • OCDE (2007), Enseignement supérieur et régions : Concurrence mondiale, engagement local, OCDE, Paris. • OCDE (2008), Panorama des régions de l’OCDE : Édition 2007, OCDE, Paris. • Spiezia, V. (2004), Cahiers statistiques de l’OCDE, OCDE, Paris. Sites Internet • OCDE Base de données régionales, www.oecd.org/gov/ territorialindicators. PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 TRAVAIL • CHÔMAGE VARIATIONS RÉGIONALES DU CHÔMAGE Taux de chômage Pourcentage de la population active vivant dans des régions avec un taux de chômage supérieur à la moyenne nationale En pourcentage de la population active, 2004 ou dernière année disponible 2004 ou dernière année disponible Pologne République slovaque Espagne Allemagne Turquie Grèce France Finlande République tchèque Italie Belgique Canada Total OCDE Portugal Suède Hongrie Danemark Australie États-Unis Autriche Japon Royaume-Uni Pays-Bas Norvège Irlande Suisse Nouvelle-Zélande Corée Mexique Islande Luxembourg Islande Corée Mexique Suisse Turquie Portugal États-Unis Norvège France République slovaque Danemark Japon Autriche Total OCDE Pologne Royaume-Uni Grèce République tchèque Suède Belgique Nouvelle-Zélande Italie Espagne Finlande Hongrie Irlande Allemagne Australie Canada Pays-Bas 0 5 10 15 20 Disparités régionales du taux de chômage Taux régional minimum et maximum, en pourcentage du taux national, 2004 ou dernière année disponible Italie Canada Allemagne Mexique Turquie Royaume-Uni Autriche Islande Espagne États-Unis Portugal Suisse Finlande Belgique République tchèque Danemark Hongrie Australie Japon France Pologne Grèce République slovaque Nouvelle-Zélande Suède Corée Pays-Bas Norvège Irlande 75 69 65 61 60 60 55 54 53 53 52 51 50 48 45 42 41 40 38 34 34 33 32 32 31 29 27 26 24 19 0 25 50 100 150 200 250 75 100 Indice de GINI des disparités régionales de taux de chômage 2004 ou dernière année disponible Italie Islande Allemagne Belgique Canada République slovaque République tchèque Portugal Turquie Espagne Royaume-Uni Finlande Mexique Moyenne OCDE Suisse Hongrie Corée Danemark Autriche Australie Pologne France Grèce États-Unis Japon Nouvelle-Zélande Norvège Irlande Pays-Bas Suède 0 50 300 0.34 0.34 0.27 0.26 0.26 0.25 0.23 0.22 0.22 0.22 0.19 0.19 0.18 0.18 0.17 0.16 0.16 0.15 0.14 0.14 0.13 0.13 0.13 0.12 0.12 0.12 0.11 0.11 0.10 0.10 0.0 0.1 0.2 0.3 0.4 0.5 1 2 http://dx.doi.org/10.1787/387826856770 PANORAMA DES STATISTIQUES DE L’OCDE 2008 – ISBN 978-92-64-04055-7 – © OCDE 2008 147 TRAVAIL • RÉMUNÉRATION ET TEMPS DE TRAVAIL RÉMUNÉRATION DU TRAVAIL Rémunération et temps de travail TRAVAIL La rémunération du travail par unité de main-d’œuvre est la rémunération moyenne perçue par les salariés des entreprises, soit par heure de travail, soit en base annuelle par salarié. Les taux de croissance annuelle basés sur les chiffres en monnaie nationale indiquent des variations relatives de la rémunération du travail entre les pays au fil du temps. Définition La rémunération du travail par unité de main-d’œuvre est définie comme étant la rémunération des salariés divisée par le nombre total des heures travaillées par les salariés des entreprises (Australie, Autriche, Canada, Danemark, France, Allemagne, Grèce, Hongrie, Italie, Corée, Norvège, République slovaque, Espagne et Suède) ou par le nombre total de salariés (tous les autres pays). La conversion en dollars des EU PPA est basée sur la PPA pour la consommation privée. Comparabilité Le maximum a été fait pour assurer la comparabilité des données d’un pays à l’autre. La source première est la base de données de l’OCDE sur les comptes nationaux, dans laquelle les données sont compilées de la même façon pour tous les pays conformément au Système de comptabilité nationale 1993. Par conséquent, les comparaisons internationales de la rémunération du travail par salarié ou par heure de travail en dollars des EU basés sur les PPA peuvent être utilisées pour une analyse statique (comparaison des niveaux entre pays à un moment donné) tandis que pour comparer les évolutions dans le temps, ce sont les taux de croissance basés sur les séries en monnaie nationale qui sont valables. Dans l’idéal, il vaut mieux faire les comparaisons internationales sur la base des séries de la rémunération du travail par heure travaillée convertie en dollars des EU à l’aide des PPA, car la comparabilité des niveaux entre les pays pour les séries par salarié peut être faussée par les différences d’un pays à l’autre des proportions de salariés qui travaillent à plein temps et à temps partiel. Cependant, même si ce sont les heures de travail qui sont utilisées, il faut garder à l’esprit qu’aucun ajustement n’est fait en fonction des écarts de qualification pour ces heures de travail. Les différences qui apparaissent lorsque que l’on compare l’indémnisation moyenne entre les pays réflètent donc aussi les différences de qualification des personnes employées. Tendances à long terme Au niveau de l’ensemble de l’économie, sur la base des données sur la rémunération du travail par salarié calculées à l’aide des PPA, il est évident que depuis 13 ans, c’est aux États-Unis et au Luxembourg que les salariés sont en moyenne les mieux rémunérés pour leur travail, et d’une façon générale l’écart entre ces pays et le reste des pays membres de l’OCDE s’est creusé. Dans la période où l’on a observé la rémunération du travail par salarié calculée à l’aide des PPA, quatre pays seulement ont enregistré une croissance moyenne annuelle supérieure à 5 %, à savoir la République tchèque, la Grèce, la Pologne et la République slovaque. Ce taux plus élevé, cependant, n’a pas permis de réduire sensiblement l’écart entre les salariés de ces pays et ceux des dix pays de tête, où la croissance moyenne annuelle de la rémunération dépasse elle-même 3 %. 148 Source • Principaux indicateurs économiques. Pour en savoir plus Publications statistiques • OCDE (2007), Principaux indicateurs économiques, OCDE, Paris.
31,881
63/halshs.archives-ouvertes.fr-halshs-00800059-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,458
14,297
ce réelle de la banque centrale et le biais inflationniste : une validation empirique Résumé Le corpus théorique qui propose la solution de la Banque Centrale indépendante, résulte des travaux menés dès le début des années soixante-dix autour d'une problématique toujours actuelle en théorie monétaire, celle de l'incohérence temporelle. Ce problème présente l'une des principales sources du biais inflationniste.La délégation de la politique monétaire à une Banque Centrale indépendante offre la garantie de la stabilité des prix et par conséquent elle augmente sa crédibilité. L'objectif primordial de ce travail est de valider un lien entre l'indépendance de la banque centrale et l'inflation. L'inspection visuelle de ce lien a confirmé le signe de la corrélation toutefois elle manque de robustesse dans les pays développés et en développement. Une modélisation économétrique de la relation entre l'inflation, l'indépendance de la Banque Centrale et des variables de performance économique permettra à répondre d'une manière patente à la problématique que si l'inflation est d'origine monétaire : pour réduire le biais inflationniste, la condition de l'indépendance de la Banque Centrale s'avère une condition nécessaire et/ou suffisante. En adoptant une mesure réelle de l'indépendance de la Banque Centrale pour 54 pays en développement classés par leur niveau de revenu pour la période 1991-2011, la régression de panel a donné les résultats attendus. Le taux de rotation du gouverneur (TOR) ne devient significatif que dans les pays qui connaissent des taux d'inflation élevé. Ce résultat prouve que la condition de l'indépendance de la banque centrale ne peut être que nécessaire. L'introduction des variables de performance économiques prouve que l'inflation est d'origine monétaire. La prise en compte d'autres variables de contrôle, qui indiquent l'impact de régime des taux de change sur l'inflation, montre que la banque centrale doit mettre plus d'effort en matière de coordination entre la politique monétaire et la politique de taux de change. Ce résultat confirme que la condition de l'indépendance de la Banque Centrale n'est pas suffisante Mots-clés : Biais inflationniste, incohérence temporelle, indépendance réelle, crédibilité, panel 1. Introduction Les années quatre vingt dix ont été marquées par une évolution relativement généralisée vers l'adoption d'une banque centrale indépendante. La particularité de cette évolution n'est pas dans l'indépendance elle –même mais dans l'ampleur de sa diffusion. En effet, des banques centrale indépendante existaient depuis plusieurs décennies, telle que la Bundesbank (1957) ou la banque suisse (A. Cukierman, 1994). Ainsi, l'indépendance de la banque centrale devient l'option la plus fréquente dans plusieurs pays : La nouvelle –Zélande (1990), L'Italie(1993), la France(1994). Avec la création de la Banque Centrale Européenne (BCE) (1999), les pays participants à l'euro ont dû adapter les status des banques centrales à l'indépendance de la BCE. La même évolution est constatée aussi dans les pays de L'Est : la Hongarie(1991) et la Russie(1993).Enfin, les pays émergents et les pays en développement ont suivi le même mouvement, au moins au niveau légal, sur le conseil parfois du Fond Monétaire International (FMI). Cette évolution peut s'expliquer par différents éléments. Le contexte monétaire international (la fin de système de Bretton Woods et les difficultés du Système Monétaire Européen) ainsi que les défauts des règles monétaires ayant poussé les économistes à identifier de nouvelles solutions pour assurer la stabilité monétaire. Le succès de la Bundesbank et la Banque Nationale Suisse dans la lutte contre l'inflation a constitué un précèdent intéressant qu'il fallait approfondir. En effet, lors de rédaction des statuts de la BCE, les législateurs se sont inspirés des textes et des lois régissant la banque Allemande. En outre le développement théorique de la fin des années soixante dix a donné une justification scientifique sur la nécessité de l'indépendance de la Banque Centrale. Cette production a largement servi de justificatif aux innovations institutionnelles de ces vingt années. L'argument central de ces recherches peut se résumer en une formule laconique : 'pour contrôler l'inflation à un niveau bas et stable, l'indépendance de la Banque Centrale est incontournable'. Mieux, l'indépendance de la Banque Centrale agit sur la variable de l'inflation, mais surtout n'a pas de conséquence, positivement ou négativement, sur d'autres variables tels que la croissance ou le chômage. Le sujet du biais inflationniste a été abordé pour la première fois pour F.Kydland et E.Prescott(1977) qui s'interrogeait sur le droit du gouvernement d'user de façon arbitraire des instruments de la politique économiques à des fins de maximisation d'utilité sociale. Pour ces auteurs d'une telle intervention se terminerait par un échec dès que ses conséquences sur l'activité économique feraient l'objet d'anticipation rationnelle de la part des agents. Quelques années plus tard, Barro et Gordon (1983) appliquent ce principe à la politique monétaire. La légitimité de l'indépendance est confirmée dans la théorie de biais inflationniste. Celle-ci est badée sur l'idée que l'indépendance permet à la Banque Centrale d'acquérir plus de crédibilité da manière à ce que les agents économiques deviennent plus confiants. Par conséquent, ils n'anticipent pas l'abandonnement de l'objectif monétaire initialement déclaré. A la Lumière de ces arguments supra-mentionnés, l'objectif de notre travail consiste alors à reconsidérer l'indépendance de la Banque Centrale à deux niveaux. Tout d'abord en déterminant les raisons qui justifient que l'indépendance de la Banque Centrale vis-à-vis du gouvernement. Ensuite, en s'interrogeant sur l'efficacité de l'indépendance comme une solution au problème de l'inflation, notamment dans le cas des pays en développement. La raison de ce choix est la suivante : dans les pays industrialisés l'indépendance légale se traduit plus concrètement dans la vie économique. Contrairement aux pays en développement, la transposition de l'indépendance légale en une indépendance réelle est moins flagrante Cukierman(1992), Strum et Hann(2001) ;dans ces pays, plusieurs considérations et contraintes sont présentes lors de l'application de la politique monétaire. C'est pourquoi, la plupart des études se sont focalisées sur l'indépendance de la banque Centrale dans les pays développés, vu que les principaux indices disponibles sont basés sur l'aspect juridique (GrilliV.D, Masciandaro, et Tabil lini G, De Souza(2001). Ainsi les études examinant la situation dans les pays en développement sont plus rares. 2 Pour atteindre les objectifs escomptés, nous présentons dans ce travail en premier lieu les mesures d'indépendance, la causalité et la robustesse de la relation entre l'indépendance, l'inflation et d'autres variables macroéconomiques. En second lieu, on mènera une inspection visuelle de cette relation sur deux groupes du pays (Développés et en développement), en utilisant les données fournies par De Souza (2001) qui portent sur la construction de l'indice légal de l'indépendance de la Banque Centrale pour les pays développés et celle de Strum et De Hann(2001) qui portent sur la mesure de l'indépendance réelle de la Banque Centrale pour les pays en développement.En fin, un modèle économétrique nécessaire pour répondre à notre objectif d'une manière patente. 2. Quelques évidences empiriques 2.1 Les mesures de l'indépendance de la Banque Centrale Des travaux empiriques sont accomplis sur l'indépendance de la Banque Centrale ; l'idée principale de ces travaux consiste en la construction d'un indicateur d'indépendance et le test d'une corrélation entre celui-ci et l'inflation. Les conclusions de ces travaux sont parfois divergentes à cause de la subjectivité dans l'établissement de ces indicateurs. Pour le cas des pays en développement, les études ne sont pas assez nombreuses car les indices d'indépendance légale ne sont efficaces que dans les pays industrialisés. Seuls les indices d'indépendance réelle comme le TOR (Le taux de rotation du gouverneur) s'avèrent opérant dans les pays en transition. Le premier de ces travaux empiriques, celui de Bade et Parkin(1982) est exemplaire d'une difficulté majeure en la matière de : la question de la définition et la transposition en terme mathématique de l'indépendance de la Banque Centrale. Le proxy utilisé par ces auteurs pour approcher l'indépendance de la Banque Centrale se base sur un indice formulé à partir d'une codification des critères d'indépendance tels que contenu dans la législation nationale. Bien que portant sur un échantillon réduit de pays, les résultats de leurs estimations montrent l'existence d'un lien entre indépendance de la Banque Centrale et l'inflation. Grilli, Masciandaro et Tabillini (1991) critiquent cette approche formaliste. Selon eux, la seule lecture des statuts juridiques de la Banque Centrale ne parvient pas à saisir l'indépendance réelle de l'institution. Ils proposent de remplacer l'indice de Bade et Parkin(1982) par l'indice politique -proche de celui de Bade et Parkin- et une indépendance qui se concentre sur les moyens effectifs mis à disposition des instituions pour atteindre objectifs. Corrélant ce nouvel indice avec les niveaux d'inflation constatés sans les pays de l'OCDE, les auteurs mettent en évidence l'existence d'une relation négative. Cukierman (1992), en collaboration avec ses collègues prolongent ces travaux sur deux points. Tout d'abord, ils proposent un nouvel indice pour dépasser le formalisme de Bade et Parkin (1982).Ensuite, ils étendent l'échantillon du test statistique. Cukierman (1992) et ses collègues définissent ainsi un nouvel indice à trois composants : l'indépendance légale (telle qu'elle est formulée dans le statut de la banque), la fréquence des changements des hommes à 3 la tête de l'institution monétaire (le turnover) et l'avis des spécialistes des banques centrales (données récoltées à travers des questionnaires). La combinaison de ces trois indicateurs intermédiaires en un index global et ensuite testée sur un échantillon incluant pour la première fois, les pays en développement. le résultat est mitigé puisque la relation négative entre degré d'indépendance de la banque centrale et l'inflation est confirmée dans le cas des pays industrialisés, mais non dans ceux en développement. Plusieurs études ont remis en cause la fiabilité, l'exactitude et l'utilité des indicateurs de l'IBC (Indépendance de la Banque Centrale). Les critiques concernent en premier lieu la question de la causalité entre L'IBC et l'inflation et en second lieu la robustesse des tests. Mangano (1997) a comparé l'indice de Grilli, Masciandaro-Tabillini (1991) (GMT) et l'indice d'indépendance de la Banque Centrale légale non pondéré de Cukierman (LVAU) de Cukierman (1992) ; il a conclu qu'il ya 40% des critéres dans le premier ne sont pas considérés comme pertinents chez le deuxiéme (vice versa avec un niveau de 45%). Cela est dû à la différence des interprétations entre les deux auteurs. Par exemple, le critère des prêt accorde à l'Etat pour le cas de l'Autriche, Grilli et Talbillini (1991) lui ont affecté la valeur 1 alors que Cukierman (1992) lui a affecté la valeur 0.67. En plus, le choix des critères est crucial et il doit tenir compte des considérations réelles de l'économie. Cukierman (1992) cite que parfois quelques indices sont plus appropries que d'autres pour certains objectifs. 2.2 Causalité et robustesse de la relation entre l'inflation, l'indépendance de la Banque Centrale et les Variables macroéconomiques Cukierman, Kalitzidakis et Summers (1993) n'observent aucun lien entre indépendance de la banque centrale et croissance dans les pays industrielle des régressions tenant compte d'autres déterminants de la croissance. Néanmoins, en prenant le taux de rotation de gouverneurs comme indicateur de dépendance vis-à-vis du pouvoir politique, ils mettent en évidence un lien avec la croissance dans les pays en développement pour lesquels le taux de rotation est variable selon les pays et très supérieur aux taux de rotation observé dans les pays industriels. Selon ces auteurs, cet effet est distinct d'un pur effet d'instabilité politique. Le signe de la causalité reste cependant sujet à caution. Toutefois De Loong Summer (1992) mettent une liaison positive entre l'indépendance de la Banque Centrale et la croissance, lorsqu'on tient compte du niveau de PIB par tête. Pour la question de la causalité selon Posen(1995), il existe un troisième facteur expliquant l'inflation faible. Il a pour cela testé sa variable FOI (financial opposition towards inflation) avec l'inflation et le degré d'indépendance. Posen(1995) conclut que l'IBC n'explique pas l'inflation lorsque sa variable FOI est présente dans le modèle. A la recherche d'un troisième facteur, Hayo(1998) a testé pour 9 pays de l'Union Européenne, entre 1973-1993, la relation entre l'inflation, l'IBC et l'opinion publique ; il a montré que dans les pays où les individus sont sensibles à la hausse des prix, l'inflation est plus stable. Les études de Posen(1995), Hayo(1998) ainsi que Moser(1999) considèrent que l'IBC est une variable endogène. Fujiki(1996) a testé 16 pays l'OCDE sur la période 1960-1994 (coupe transversale). Il a conclu que la relation entre IBC et l'inflation dépend de l'échantillon de période et elle 4 devient très faible en utilisant des données de panel, en totale l'indépendance de la Banque Centrale affect la croissance économiques. Jonsson(1995) stipule que l'indépendance a un effet notoire sur l'inflation lorsque les pays sont sous un régime de change flexible. Alors que Walsh(1997) a trouvé que l'IBC a aussi un effet lorsque le taux de change est fixe. Cet auteur a introduit aussi l'ouverture économique, le taux de chômage « naturel », le déficit budgétaire et enfin un variable dummy indiquant le conservatisme de l'Etat, le coefficient de l'IBC demeure significatif. Selon Berger, DeHaan & Eijffinger (2001) la relation entre les indicateurs légaux de l'IBC et l'inflation dans les pays (OCDE) est assez robuste. Campillo &Miron (1997) citent que la Banque centrale ne joue pas un rôle actif dans la lutte contre l'inflation dans les pays développement alors que l'ouverture économique, la stabilité politique sont bien liées à l'inflation. Eelke de Jong(2001) a mené une étude sur les pays de l'OCDE et il a montré qu'il ya une relation entre l'indépendance de la Banque Centrale, l'inflation et la culture de l'inflation. Le résultat trouvé montre que l'inflation est inférieure dans les pays où les agents détestent l'incertitude concernant l'inflation. Carlstrom C.T., et Fuerst T.S (2006) ont fait une étude sur la relation existante entre l'inflation et l'indépendance de la Banque Centrale pour les pays industrialisés. Avec un échantillon de 26 pays industrialisés, ils ont trouvé qu'il ya une augmentation du degré de l'indépendance pour la période 1988-2000 par rapport à celle de 1955-1988. Cette augmentation a été accompagnée par une baisse de taux d'inflation pour ces pays pour la même période. 3. L'inspection visuelle de la relation entre l'inflation, l'indépendance de la Banque Centrale et la croissance Selon la littérature théorique exposée précédemment, plus l'indépendance de la Banque Centrale est importante, plus le taux d'inflation atteint devrait être bas. Les résultats 5 empiriques (Grilli, Masciandaro & Talbillini(1991), Alesina & Summers (1993) et De Souza(2001)) confortent en général cette conjoncture et trouvent une relation clairement négative entre les indices d'indépendance légale et le niveau et la moyenne des taux d'inflation. Alors que d'autres auteurs trouvent une relation positive entre l'indépendance réel et l'inflation (Cukierman (1992), Strum & De Hann(2001)). Mais les résultats restent dépendants de l'échantillon et les indices utilisés. L'objectif de cette partie est de prouver l'existence d'une corrélation positive (négative) entre l'indépendance réel (légale) de la Banque Centrale et l'inflation dans les pays en développements (pays développés) et de vérifier que plus l'indépendance augmente plus la stabilité des prix est soutenu sans engendrer de coût. 3.1 Le cas des pays développés Les concentrations sur les calculs de l'indice de l'indépendance de la Banque Centrale ont pris place dans un premier temps avec Cukierman (1992). Par la suite, plusieurs chercheurs ont réalisé des travaux pour construire des bases de données récentes. Une parmi d'autres est prise dans notre travail : De Souza (2001) qui calcule de l'indice légale de l'indépendance de la Banque Centrale, noté LCBI, a construit sa base de données à travers un questionnaire qui établit la relation entre les indicateurs de LCBI et les indicateurs de la responsabilité de la Banque Centrale. Les variables légales de De Souza (2001) diffèrent de celles élaborées par Cukierman (1992). Tandis que sa base recouvre 32 banques centrales y compris la Banque Centrale Européenne (BCE). Cukierman (1992) construit son indice à partir des 16 questions réparties en 4 catégories. Par contre, De Souza (2001) utilise seulement 9 questions réparties comme suit : l'indépendance personnelle (3 questions), l'indépendance politique (4 questions), l'indépendance économique et financière (2 questions), les valeurs de ces variables sont comprises entre 0 et 1. (Voir annexe 1). 3.1.1 La méthodologie et les hypothèses Afin d'étudier l'effet de l'indépendance légale de la Banque Centrale (LCBI) sur l'inflation pour les pays industrialisés et émergents sur la période entre 1991-2011, on a choisi une méthode simple qui consiste à analyser la corrélation statistique entre les indices d'indépendance légale de De Souza (2001) et cette variable macro-économique. 3.1.2 L'interprétation des résultats et les conclusions 3.1.2.1 La relation entre l'indépendance légale et le taux d'inflation 7 INF INF g1 g2 Pays en développement g3 g4 TOR 1 54 g1 -0,183 1 0,1853 54 54 -0,2567 0,7845*** g2 1 0,061 0 54 54 54 -0,0481 0,7056*** 0,2495* g3 1 0,7298 0 0,0689 54 54 54 54 g4 -0,0366 0,7257*** 0,2931** 0,4648* 1 0,7928 54 0,0354 0 54 -0,2461 0,0315 54 -0,1917 0,0004 54 -0,186 54 -0,1532 0,7992 54 0,0728 54 0,165 54 0,1554 54 0,2689 54 TOR 1 54 INF INF g1 g2 Pays Développés et emregents g3 g4 TOR 1 29 g1 0,0795 1 0,682 29 29 -0,1783 0,7844*** 0,3549 0 29 29 0,2842 0,8428*** 0,1351 0 29 29 -0,1045 0,7434*** g2 1 29 0,4071 g3 1 0,0284 29 29 g4 0,2709 0,7101*** 1 0,5896 29 -0,1045 0 29 -0,2517 0,1552 29 -0,2819 0 29 -0,1331 29 -0,0825 0,5896 29 0,1877 29 0,1384 29 0,4911 29 0,6705 29 8 TOR 1 29 Comme le montre la matrice de corrélation, la corrélation entre l'indice LCBI et l'inflation est de l'ordre de -0.1045. Elle est bien négative mais elle n'est pas significative au seuil de 1% (0.5896>0.1) le signe de la corrélation est nette aussi bien dans la matrice que dans le graphique (graphique 1) puisque la droite d'ajustement s'avère décroissante. Graphique 1 : L'indice d'indépendance légale de la banque centrale (LCBI) & le taux annuel moyen de l'inflation pour la période : 1991-2011 On remarque dans le graphique (1) que le Japon représente un cas particulier car l'inflation moyenne dans ce pays atteint une valeur très faible voir même négative de -0.2947% avec une valeur de l'indice LCBI égale à 2.83. Le cas de Japon a souvent été souligné dans les études Walsh C.E (1997) et Mourougane(1997). Les valeurs montrent bien que le taux de l'inflation et de l'indépendance sont les plus faibles parmi les 29 pays choisis. Walsh (1997) explique ce paradoxe en introduisant d'autres facteurs explicatifs, en particulier le taux de chômage d'équilibre et le déficit public. Comme les valeurs sont faibles sans le cas Japonais, les agents privés savent que le gouvernement n'aura pas recours à l'inflation surprise. De ce fait, la situation du Japon s'explique en ayant recours à un modèle à la Barro-Gordon plutôt qu'à un modèle à la Rogoff. Ainsi, Mourougane (1997) conclut que le taux de préférence pour le présent du gouvernement Japonais serait assez faible pour que la condition de non déviation soit vérifiée et donc que la délégation du pouvoir monétaire à un organisme plus indépendant est inutile. Les pays qui se trouvent plus proches de la droite d'ajustement (La Corée, Le Portugal, L'Espagne, L'Islande, L'Italie, La Suède, La Finlande) confirment à moindre d'erreur la théorie qui stipule que plus est l'indépendance légale de la Banque Centrale est élevée, plus faible sera le niveau d'inflation. Alors que les pays qui sont au dessus et à la droite du droite d'ajustement (La Grèce, Le Chili, La république chèque) malgré un niveau d'indépendance élevé, possèdent un taux moyen d'inflation environ 9%, on peut dire que dans ces pays, l'indépendance de leurs Banque Centrale ne suffit pas pour atteindre un niveau proche d'inflation ciblé entre 2% et 3%. Cela peut être expliqué par des raisons telles que de la nature de régime des taux de change, l'endettement, etcEn revanche, les pays qui se trouvent à gauche et au dessus de la droite d'ajustement (La Pologne, Le Mexique et la Hongarie) 9 doivent faire plus d'effort en matière d'indépendance surtout économique et financière qui est égale à 0. 3.1.2.2 La relation entre l'inflation et la croissance Graphique 2 : le taux annuel moyen de la croissance de PIB (g1) & le taux annuel moyen de l'inflation (inf) des pays développés et émergents pour la période 1991-2011 La matrice de corrélation affiche une relation positive entre le taux moyen de l'inflation et celui de la croissance pour les périodes entre 1991-2011 (corr = 0.0795) mais elle reste toute fois non significative différent de zéro au seuil de 1% (0.6820 > 0.1). Dans les pays industrialisés où l'inflation est modérée (L'Irlande, Le Canada, L'Australie, La Nouvelle Zélande ) ne sont pas éprouvés d'un taux de croissance faible que les pays qui ont un taux d'inflation faible (Le Japon et La Suède). Il existe des cas qui ne combinent pas les deux situations supra-mentionnées. Ces résultats prouvent que l'effet de l'inflation sur le taux de croissance à long-terme peut être non linéaire. Avec un niveau de l'inflation (anticipé faible), la relation entre l'inflation et la croissance devient non significative. Plusieurs économistes argumentent qu'une inflation modérée est favorable pour la croissance et il y a un niveau optimum à partir duquel l'inflation a un effet néfaste sur la croissance Khan&Senhadji, (2000) Fischer (1996) prouve que le niveau idéal de l'inflation pour atteindre les objectifs de long-terme de la politique monétaire est entre 1 et 3%. Sarel (1996) conclut que la relation entre l'inflation et la croissance passe de négative à positive si elle tourne autour de 8% du taux d'inflation. 3.1.2.3 La relation entre l'indépendance légale et le taux de croissance pour les périodes de 1991-2011 La corrélation binaire entre LCBI et les taux annuels moyens de la croissance de PIB les diverses périodes de 1991 à 2011 sont : de 1991-2011= - 0.2517 ; 1991-1997 = - 0.2819 ; 1998-2004 = -0.1331 ; 2005-2011= -0.0825. La persistance de l'effet négatif de LCBI sur le taux de croissance, quoique cette corrélation reste non significativement différente de zéro au seuil de 1%, peut indiquer que l'indépendance de la Banque Centrale ne constitue pas un « Free Lunch ». Cependant, il apparaît que l'indépendance de la Banque Centrale a un coût léger en terme de la diminution de la croissance. Toutefois, parce que l'amplitude de la corrélation diminue successivement 10 au fur et à mesure quand on avance dans le temps. NBR cod pays TOR g1 g2 g3 g4 inf rang 1 Alg Algeria 0,11 2,45 0,32 3,46 4,22 17,48 43 2 Bang Bangladesh 0,22 4,96 4,59 5,01 5,22 4,08 12 3 Bel Belize 0,22 6,23 8,14 3,56 7 1,42 2 4 Bot Bostwana 0,11 5,22 4,54 5,65 5,46 7,78 23 5 Bur Burundi 0,11 -0,05 -0,07 -2,29 2,22 10,24 32 6 CV Cape Verde 0,11 5,57 7,33 5,64 3,75 3,7 10 7 Chil Chile 0,22 9,31 10,66 8,76 8,52 8,84 27 8 Colom Colombia 0,11 2,86 4,33 1,41 2,86 17,85 44 9 Csta R Costa Rica 0,56 4,71 5,42 5,4 3,31 16,85 41 10 Djib Djibouti 0,11 -0,04 -1,62 -0,78 2,32 3,36 6 11 Domc Dominican Rep 0,33 4,26 2,07 7,14 3,56 17,92 46 12 Ecu Ecuador 0,89 2,6 2,88 0,8 4,12 6,02 14 13 Egy Egypt 0,11 4,22 3,61 5,2 3,86 8,28 25 14 Esal El Salvador 0,11 3,9 5,87 3,91 1,92 7,13 20 15 Ethi Ethiopia 0,33 3,71 0,66 5,18 5,27 6,49 17 16 Gamb Gambia 0,11 3,61 2,64 3,58 4,62 8,74 26 17 Ghan Ghana 0,11 4,36 4,13 4,4 4,56 25,5 51 11 18 Guat Guatemala 0,56 3,58 3,91 4,22 19 Guin Guinea 0,11 3,72 3,41 5,01 2,47 8,85 28 20 Gui bsa Guinea-Bissau 0,33 1,62 3,52 0,44 1,08 24,62 50 21 Hait Haiti 0,78 -1,07 -3,96 1,55 -0,81 20,06 47 22 Hond Honduras 0,33 3,11 3,78 2,73 3,83 15,43 40 23 Indi India 0,33 5,71 4,86 6,53 5,74 7,11 18 24 Indo Indonisia 0,22 4,77 7,99 1,68 4,63 14,27 38 25 Ira Iran 0,11 5,03 6,19 3,1 5,79 24,19 49 26 Jam Jamaica 0,33 1,52 3,37 -0,31 1,51 21,08 48 27 Jord Jordan 0,11 4,93 6,22 3,53 5,05 3,41 7 28 Keny Kenya 0,11 1,83 1,56 2,71 1,21 12,21 34 29 Kor Korea, Rep 0,44 5,97 7,8 4,69 5,41 5,22 13 30 Lebn Lebanon 0,11 7,96 16,85 3,13 3,89 17,88 45 31 Lesoth Lesotho 0,11 3,62 4,36 3,62 2,87 9,39 29 32 Mdcar Madagascar 0,22 1,95 0,01 3,23 2,62 15,19 39 33 Mlaw Malawi 0,22 3,25 1,31 6,96 1,5 26,19 53 34 Mlsy Malaysia 0,22 6,55 9,31 5,19 5,14 3,49 8 35 Malt Malta 0,22 3,76 5,5 4,49 1,3 3,18 5 36 Mau Mautitius 0,11 5,08 5,48 5,28 4,48 6,39 16 37 Moz Mozambique 0,11 6,23 2,8 8,53 7,36 26,95 54 38 Nepl Nepal 0,22 4,45 5,5 4,26 3,57 7,42 21 39 Nig Nigeria 0,11 3,59 3,64 2,5 4,63 25,92 52 40 Paki Pakistan 0,22 4,03 4,55 3,41 4,13 9,76 31 41 Para Paraguay 0,44 1,92 2,92 1,73 1,1 14,16 37 42 Phil Philippines 0,22 3,38 1,86 3,71 4,58 8,08 24 43 Seyc Seychelles 0,22 2,82 4,46 5,26 -1,07 2,65 3 44 Sing Singapore 0,11 6,51 9,23 6,05 4,24 1,3 1 45 Islan Solom Islands 0,11 1,09 4,39 2,08 -3,2 7,75 22 46 S L Sri Lanka 0,22 4,86 5,58 4,94 4,06 9,67 30 47 Swa Swaziland 0,22 3,24 3,48 3,66 2,23 11,84 33 48 Syr Syria 0,11 4,83 8,37 3,47 2,66 7,11 19 49 Tanz Tanzania 0,22 4,22 2,5 3,78 6,39 16,99 42 50 Thai 0,44 5,2 9,01 1,54 5,03 3,6 9 51 TrTo Thailand Trini and Tobago 0,22 3,99 0,93 4,55 6,49 6,21 15 52 Tun Tunisia 0,11 4,89 5,03 5,13 4,51 3,98 11 53 Uga Uganda 0,11 6,5 6,03 7,7 5,76 13,29 36 54 Van Vanuatu 0,33 2,62 6,73 1,03 Moyenne 2,6 12,35 0,1 2,77 0,233 3,984 4,507 3,836 3,625 11,14 inf = le taux annuel moyen de l'inflation pour la période 1991-2011 g1 : le taux annuel moyen de la croissance de PIB pour la période 1991-2011 g2 : le taux annuel moyen de la croissance de PIB pour la période 1991-1997 g3 : le taux annuel moyen de la croissance de PIB pour la période 1998-2004 12 35 4 g4 : le taux annuel moyen de la croissance de PIB pour la période 2005-2011 TOR: L'indice de mesure de l'indépendance Réel de la Banque Centrale pour la période 1991-2004 RANG = le rang de taux d'inflation Source = WDI 2012 3.2.2 L'interprétation des résultats et les conclusions Les résultats dégagés sont mixtes et différents de ceux élaborés dans les groupes de pays industrialisés et émergents. 13 3.2.2.3 La relation entre l'indépendance et la croissance Le TOR est corrélé négativement à la croissance pendant la période totale ainsi que pour les trois sous périodes (voir annexe 8) et la période totale (graphique 13), la corrélation s'avère non significativement différente de zéro au seuil de 1% (0.0728 < 0.01). il est clair que l'indépendance réelle des Banques Centrales n' pas d'effet négatif sur le niveau de la croissance dans les pays en développement. Ce qui prouve l'hypothèse « Free Lunch ». Malgré le signe de la relation entre les différentes variables est bien vérifiée théoriquement et empiriquement, l'inspection visuelle menée sur les deux groupes n'a pas donné des liens significatifs tel que le lien entre l'inflation et l'indépendance légale et celle avec l'inflation et l'indépendance réelle. Dans ce qui suit nous allons focaliser sur l'impact de l'indépendance réelle des Banques Centrales des pays sur l'inflation en adoptant une nouvelle répartition de l'échantillon autre que la distinction entre pays en développement et pays développés à travers un modèle économétrique. 4. Les régressions économétriques 4.1. La présentation du modèle et la méthodologie Notre essai empirique porte sur la relation entre le proxy de L'IBC, l'inflation et des variables macroéconomiques. Les données des variables sont recueillies de la manière suivante : les données des taux de rotation du gouverneur (TOR : turnover rate) pour la période de 1991 à 2011 m'ont été envoyé par M.Jacob de Hann. (E-mail : [email protected]) Suivant la démarche suivie par Cukierman (1991) et Jan-Egber Sturm et Jacob de Haan(2001), on a utilisé le taux d'inflation mesuré par l'indice de prix de consommation transformée, noté D, dans le but de réduire l'hétéroscidasticité de l'erreur dans la régression. Le modèle est de la forme suivante : Di,t = c0+c1TORi,t + c2 TRADE i,t + c3M2i,t+c4GDPCAPi,t+c5CRi,t+DUMMY FJ+ε i,t Ainsi : i = 1N (N varie selon le groupe à étudier) t = 19912011 D est définie comme le taux d'inflation le taux d'inflation devisé sur un plus le taux d'inflation pour le pays i à l'instant t, de la sorte que : D = P/ (P+1). Si le taux d'inflation est positif alors D se trouvera dans l'intervalle 0 à 1. (Exemple : lorsque l'inflation est égale à π = 100%, alors P = 1, donc D=0.5). TOR : le taux de rotation de gouverneur, on affecte la valeur 0 dans le cas où il n'y a pas eu de changement du gouverneur alors qu'on affecte la valeur 1 dans le cas où il y a un seul changement. Ensuite, on calcule la m arithmétique simple de ces affectations sur la période estimée pour chaque année. 14 TRADE : Cette variable est définie comme la somme des exportations et des importations du pays i rapporté au PIB. GDPCAP : Elle représente les crédits accordés par les banques à tous les secteurs et à l'exception du gouvernement. M2 : Elle représente la monnaie et le quasi monnaie (M2) en pourcentage de PIB. DUMMY FJ : C'est une variable binaire qui prend une valeur 0 ou 1, où FJ est définit comme suite : - F1 prend la valeur 1 si le pays i adopte à la période t un régime de change fixe sinon elle prend 0. F2 prend la valeur 1 si le pays i adopte à la période t un régime de taux des changes intermédiaires sinon elle prend 0. F3 prend la valeur 1 si le pays i adopte à la période t un régime de taux des changes flexibles sinon elle prend 0. Le classement des pays selon leur nature de régime des taux de change est extrait de la base de données fournis par Levy-Yeyati and Sturzenegger (2010). Toutes les valeurs des variables macro-économiques sont prises de World Development Indicateurs (WDI 2012). 4.2. La méthodologie et le choix de la méthode Pour puisse aboutir au bon résultat, on a essayé de rendre notre échantillon plus homogène (Annexe 9). Pour cela, on a privilégié le classement des pays effectué par la Banque Mondiale de l'année 2011 selon leurs niveaux de revenus, quatre groupes au final : G1 : 22 pays ont un revenu bas. (Ratio de GNI par tête $ 765 ou moins) G2 : 30 pays ont un revenu moyen le plus inférieur. (Ratio de GNI par tête entre $ 765 et $ 3.035) G3 : 12 pays ont un revenu moyen le plus supérieur. (Ratio de GNI par tête entre $ 3.036 et $ 9.385) G4 : 23 pays OCDE qui ont un revenu supérieur (Ratio de GNI par tête $ 9.385 ou plus). Le choix de la méthode est lié au test de spécification de modèle. Selon Christophe Hurlin (2004), la procédure de ce test se présente comme suit : Si on représente notre modèle sous sa forme linéaire suivante : yi, t = αi + β'i xi,t + ε i,t Avec yi,t : la variable dépendante du pays i à la date t avec i=1N et t = 1T xi,t : c'est un vecteur du K variable explicatives : 15 i,t = (x1,i,t, x2,i,t,, xk,i,t). Les innovations sont supposées être i.i.d de moyenne nulle et de variance égale à σ2ε, iε [1, N]. Ainsi on suppose que les paramètres αi et βi du modèle (1) peuvent différencier dans la dimension individuelle, mais l'on suppose qu'ils sont constants dans le temps. Pour discriminer les différents cas possibles et pour s'assurer du bien fondé de la structure de Panel, il convient d'adopter une procédure de tests d'homogénéité emboités. Test H01 : αi = α βi = β H01 rejetée Test H02 : βi = β iε [1, N] H01 vraie yi,t = αi + β'i xi,t + ε i,t iε [1, N] H02 rejetée H02 vraie yi,t = αi + β'i xi,t + ε i,t Test H03 : αi = α iε [1, N] H03 rejetée H 03vraie yi,t = α + β'i xi,t + ε i,t yi,t = αi + β'i xi,t + ε i, t Figure 4: Procédure générale de Tests d'Homogénéité 4.3. Construction des statistiques de test Nous allons à présent présenter les méthodes de construction des différents tests de Fischer utilisés dans cette procédure. On considère le modèle (1) et l'on suppose que les résidus ε i,t Sont indépendamment distribués dans les dimensions i et t, suivant une loi normale d'espérance nulle et de variance finie σ2ε. On suppose que la variance est connue. 4.3.1. Le test d'homogénéité globale On considère tout d'abord, le test de l'hypothèse d'homogénéité totale : H01 : αi = α βi = β iε [1, N] Soit F1 la statistique du Fischer associée à ce test. Ce test revient à imposer (k+1) (N-1) restriction linéaire sur les coefficients du modèle (1). De plus, sous l'hypothèse alternative H01 il existe au plus NK coefficients différents pour les composantes des N vecteurs βi (de 16 dimension K) et N constantes individuelles. On dispose donc de NT – N (K+1) degré de liberté. A lors la statistique de Fischer F1 associée au test d'homogénéité H01 totale s'écrit de la forme suivante : F1= Où SCR 1, désigne la somme des carrés des résidus du modèle (1) et SCR 1,c, désigne la somme des carrés des résidus du modèle contraint : yi,t = α + β'i xi,t + ε i,t Ainsi, si la réalisation de la statistique de Fischer pour l'échantillon considéré est supérieure au seuil théorique à α%, on rejette l'hypothèse nulle d'homogénéité. 4.3.2. test d'homogénéité des coefficients βi Considérons à présent le test de l'hypothèse d'homogénéité des coefficients βi noté H02 : H02 : βi = β iε [1, N] Soit F2 la statistique de Fischer associée à ce test sous l'hypothèse nulle, on n'impose aucune restriction sur les constantes individuelles αi, toujours sous l'hypothèse d'indépendance et de normalité des résidus, on construit une statistique de Fischer pour tester ces (N-1)K restrictions linéaires. Sous l'hypothèse alternative Ha2, on retrouve le modèle (1) et NTN(K+1) degré de liberté. D'où F2 s'écrit de la manière suivante : F2 = Où SCR1 désigne la somme des carrés des résidus du modèle (1) et carrés des résidus du modèle contraint (modèle à effet individuels) : yi,t = αi + β xi,t + ε i,t 4.3.3. G1 G2 G3 G4 SCR (contraint) 3.51 4.17 1.16 0.038 SCR1 1.89 3.91 0.582 0.019 F1 (calculée) 1.197 0.091 1.44 0.995 (126.176) (174.24) (66.144) (138.274) F1 (tabulée) 1.33 1.12 1.53 1.27 Décission H0 H0 acceptée H0 acceptée H0 acceptée H0 acceptée df Avec : SCR(contraint) : la somme carrée des résidus de modèle contraint 18 SCR1 : désigne la somme des carrés des résidus du modèle (1) F1 (calculée) : la statistique de Fischer calculée du test d'homogénéité globale F1 (tabulée) : la statistique de Fischer calculée du test d'homogénéité globale df : le degré de liberté 4.4. Les estimations et les conclusions 4.4.1. La régression simple Après l'identification de la structure de notre modèle, réalisons maintenant les estimations nécessaires par la méthode MCO en considérant le TOR comme notre principal proxy de mesure de l'IBC. Selon De Haan &Kooi (2000), l'indice TOR n'a pas été utilisé dans plusieurs études depuis sa conception par Cukierman et al (1991), avec un échantillon d'une quarantaine de pays et qui s'étend de 1980 à 1989, la plupart des études ont été faites à l'aide des indices légaux. De Haan et Kooi (2000) ont fait l'extension de cet indice jusqu'en 1998 pour un échantillon de 82 pays. La première estimation consiste en une régression simple à deux variables par la méthode de moindres carrés ordinaires. L'équation à estimer est : Di,t = c0 + c1 TOR i,t+ ε i,t La simplicité de la méthode d'estimation a fait l'objet de plusieurs critiques. Cependant, les estimations avec d'autres méthodes n'ont pas abouti à des conclusions tranchantes ; vu la nature et la conception des proxys indexant l'indépendance de la banque centrale. Les résultats de cette première régression donne lieu à des différentes conclusions que nous allons énumérer une à une. Régression simple : L' inflation transformée (D) & l'indice de l' indépendan ce de la Banque Central e ( TOR ) durant la période (1991-2011) D : Variable dépendant e Groupes G(1) G(2) G(3) G(4) TOR 0.071 0.159 0.012 0.004 (1.98)** (5.82)*** (8.33) (0.50) 0.150 0.100 0.059 0.029 (9.23)*** (8.84)*** (4.80)*** (15.31)*** Const 19 Obs 308 420 168 322 R-suared 0.01 0.07 0.29 0.01 Absolute value of statistics in parentheses *significant at 10% ; ** significant at 5% ; ***significant at 1% Pour les groupes (1), (2) le coefficient de l'indice TOR est significativement différent de zéro au seuil de (5%, 1%) respectivement. 4.4.2. La régression multiple Parce que le TOR n'était pas un bon indicateur pour les pays de revenus, des pays OCDE (G4) et celui des groupes G(3), on va limiter notre estimation seulement pour les deux groupes G1 et G2. Toutefois, un modèle à deux variables est insuffisant pour l'explication d'un phénomène économique ; que dire d'un phénomène d'ampleur telle que l'inflation. C'est pourquoi, dans le paragraphe suivant on va essayer d'introduire des variables qui expliqueront mieux l'inflation. Dans cette deuxième étape, nous avons considéré le modèle de base représenté par : Di,t = c0+c1TORi,t + c2 TRADE i,t + c3M2i,t+c4GDPCAPi,t+c5CRi,t +ε i,t 20 On a appliqué le logarithme népérien aux variables macro-économiques à fin de stabiliser leur variance. Dans un premier stade, on va effectuer la régression sans variable dummy, l'output de ce modèle présente l'estimation de ces coefficients et leurs significations. La régression de l'inflation transformée (D) sur le TOR et des variables macroéconomi ques Groupes G(1) G(2) TOR 0.096 0.088 (3.87)*** (4.54)*** -0.034 -0.006 (2.19)*** (0.44) 0.125 0.105 (18.74)*** (16.67)*** 0.013 0.010 (1.47) (1.29) -0.027 -0.063 (1.68)* (4.09)*** -0.158 -0.656 (1.34) (4.55)*** Obs 278 388 R-squared 0.61 0.54 TRADE M2 CR GDPCAP Cons Absolute value of statistics in parentheses *significant at 10% ; ** significant at 5% ; ***significant at 1% D'après les résultats figurant dans le tableau ci-dessus, on remarque bien que notre modèle s'améliore. La statistique de R2 est élevée pour les trois groupes et qui teint des valeurs de 0.61 et 0.54 respectivement pour les groupes G1 et G2. Cela implique que la variabilité des variables explicatives du modèle expliquerait plus de 50% la variabilité de taux de l'inflation transformée. A l'économie des résultats obtenus dans les travaux Cukierman et al(1991) et de Strum & De Haan (2001) où ces derniers suggèrent que à la suite de l'introduction des 21 variables macroéconomiques sur leurs modèles, le TOR demeure une variable non significative et n'explique pas la variation de taux de l'inflation sur les périodes 1980-1989 et 1990-1998 alors que d'autres variables macroéconomiques tel que la dette initiale des pays, l'ouverture commerciale et l'instabilité politiques dans les pays en développement ont la part du lion dans l'explication de la variation de l'inflation dans ces pays. Toutefois les résultats obtenus dans notre travail de recherche trouvent leur validité : Premièrement, la manière dont on a traité notre échantillon. La majorité des travaux de recherche classent leurs échantillons du pays dans des repères soit contigüité géographique, soit en étude de cas sur un pays donné. Deuxièmement, l'apparition de nouveau contexte de la conduite de la politique monétaire. Nous mettons ici l'accent sur le régime de ciblage d'inflation. Une parmi les conditions de réussite de l'application de ce régime est l'indépendance de la Banque Centrale. Le coefficient de la variable M2 est en relation positive avec l'inflation. Il est significativement différent de zéro au seuil de 1% dans les deux groupes G(1) et G(2). Cela signifie que plus l'agrégat M2 augmente plus le taux d'inflation sera élevé. Sa valeur demeure la plus élevée dans notre estimation. Cette remarque nous permet de conclure que l'inflation est d'origine monétaire. L'ouverture commerciale mesurée par la variable TRADE est corrélée négativement avec l'inflation et significativement différente de zéro au seuil de 1% pour le groupe G(1). Plus le degré de l'ouverture commerciale du pays augmente moins le taux d'inflation sera élevé. Le pays qui maintient un taux d'inflation stable à un niveau faible peut concurrencer ces partenaires sur le marché des biens et services. Dans ce qui suit de notre travail empirique, on va s'intéresser seulement aux pays de groupe G(2). Ce choix est imposable suit à l'insuffisance des données pendant certains périodes de l'estimation portant sur la nature du régime des taux de change pour le groupe G(1). Nous ajoutons une variable DUMMY Fj j= {1.2.3} au modèle précèdent pour vérifier l'impact du régime de change sur l'inflation. Le modèle s'écrit de la manière suivante : Di,t = c0+c1TORi,t + c2 TRADE i,t + c3M2i,t+c GDPCAPi,t + c5CRi, t + DUMMY Fj +ε i,t TOR TRADE modèle (1) modèle(2) modèle (3) 0.060 0.065 0.070 (2.11)** (3.34)*** (3.63)*** -0.016 -0.020 -0.016 (1.17) (1.48) (1.21) 22 M2 CR GDPCAP F1 0.087 0.086 0.087 (13.12)*** (12.92)*** (13.13)*** 0.023 0.024 0.023 (3.07)*** (3.24)*** (3.02)*** -0.039 -0.048 -0.044 (2.55)** (3.16)*** (2.82)*** -0.026 (3.04)*** F2 0.020 (1.77)* F3 0.002 (0.19) Constant -0.310 -0.374 -0.364 (2.13)** (2.60)*** (2.50)** Obs 332 332 332 R-squared 0.48 0.48 0.47 Absolute value of statistics in parentheses *significant at 10% ; ** significant at 5% ; ***significant at 1% D'après cet output, on remarque l'instabilité de coefficient associée à l'indépendance de la Banque Centrale (TOR). Sa valeur s'accroitre en passant du régime des taux de change fixe au flexible. Nous rejoindrons l'idée avancée par Mark S. 5. Conclusion Ce papier a pour objectif d'exposer l'indépendance de la Banque Centrale, solution pour le biais inflationniste. Dans un premier temps nous avons rappelé les mesures les plus citées pour approximer l'indépendance de la Banque Centrale. A ce niveau, force est de constater l'existence de plusieurs proxys qui différent dans la méthodologie de construction selon l'auteur. On remarque une différenciation au niveau de la pondération des critères sous lesquels se base le questionnaire adressé à la Banque Centrale de l'Auriche dans les études de Grilli, Masciandro, Tabillini (1991) et Cukierman (1992). Donc, le choix des critères est important s'il tient compte des spécificités réelles de l'économie. Deuxième point, l'étude de la causalité et de la robustesse de la relation entre l'inflation et l'indépendance de la Banque Centrale et les variables macroéconomiques a permis d'observer une multitude de facteurs explicatifs de l'inflation. Les résultats se diffèrent selon la période et l'échantillon d'étude. Dans un second temps, une série d'hypothèses a été posé afin d'observer visuellement la relation existante entre l'inflation, l'indépendance de la Banque Centrale et la Croissance sur deux groupes de pays (développés et en développement). Une série d'hypothèses a été posée afin d'observer visuellement la relation existante entre l'inflation, l'indépendance de la Banque Centrale et la Croissance. Cette méthode a bien confirmé d'une part, le signe prévu de la corrélation entre ces différentes variables et d'autre part, la vérification des hypothèses supra-mentionnées. Toutefois elle souffre du non significativité du cette corrélation. Pour relever ces insuffisances, et pour des raisons de robustesse nous sommes entrés plus dans le détail en utilisant des régressions économétriques. L'output (1) montre que le taux de rotation de gouverneur TOR est un indice fiable pour la mesure de l'indépendance de la Banque Centrale dans les pays à croissance faible G(1) et G(2). Son coefficient est significatif seulement lorsque l'échantillon comprend des pays ayant un taux d'inflation élevé en moyenne. Dans notre cas, la variable D≥0.145 c'est à dire un taux d'inflation qui dépasse 16.95%. La corrélation positive entre l'inflation et l'indépendance de la Banque Centrale est confirmée. Avec plus d'indépendance, on peut réaliser des taux d'inflation faibles et garantir une stabilité de prix à long terme. éférences Aglietta M. (1992) « l'indépendance des banques Centrale », Revue d'économie financière, n°22 Ahsen A. (2006) « Central Bank Independence & Gouvernance (CBIG) and inflation in Asia Pacific » phd Candidate, Departement of Accounting and finance, Level 10, Building 11, Layto Campus, Wellington Road, V ic 3168, Monash University, Australia. Alesina A., et Gatti R.(1995) « How independent should the central bank be? Independent central banks : low inflation at no cost? », American Economic Review, Paper and Proceeding, vol.85,mai,pp.196-200 Alesina A., et summers L.H(1993) « Central bank independence and macro-economic performance : some comparative evidence », journal of money, credit and banking,vol.25.Mai,pp.151-162 Barro B., et Gordon D. (1983a) « Apositive Theory of monetary policy in a natural rate model », journal of political economy,vol.91,n°4,aout,pp.589-610 Barro B., et Gordon D. (1983b) « Rules, discretion and reputation in mode of monetary policy », journal of monetary economics, vol.12, pp.104-106 Brash T.D.(2002a) « Inflation targeting :New Zealand's exp4 years », the North American Journal of Economics and Finance,vol.13,p.103 Carlstrom C.T, et Fuerst T.S(2006) « Central Bank Independence and Inflation : A Note », Federal Reserve Bank of Cleveland Working paper 06/21 De Hann J. and Kooi W(2000) « Dose Central Bank Independence Really Matter? New evidence for developing countries using a new indicators », Journal of banking and finance, Vol.24,643-664. De Souza(2001) « Independent and Accountable Central Banks and the European Central Bank », European Integration online Papers, Vol 5, No.9 Eelke de jong (2010) « Way are the price Stability and statutory Independence of central Banks Negatively correlated? The role of culture » Departement of Economics, Nij megen School of managment, New Jersey. Geraats P.M (2008) « Why adopt Transparency? The Publication of Central Banks Forecast » Document de travail, n°41,BCE, Janvier Levy-Yeyati and Sturzenegger (2008) « Classifying exchange rate regimes :Deeds vs words »,European Economic Review,49(6),1603-1635 Lybek and Morris (2009) « Central Bank Governance :A Survey of Boards and managment », IMF Working Paper 04/226,Washington : Inter national Monetary Fund. 26 Sturm J.E.and de Hann J.(2001) « Inflation in developing countries :does central bank independence matter? New evidence based on a new data set » Department of Economics, University of Groningen,The Netherlands Version, March2001 Winkler B.(2000) « Which Kind of Transparency? On the Need for Clarity in Monetary Policy-Making », Document de travail,n°25,BCE,Août,p24 27 Annexe 1. Questionnaire formulé par De Souza(2001) pour la mesure de l'Indépendance de la Banque Centrale CRITERIA ISSUE Personal Indépendance POINTS 1 Appointment of the central bank(CB) board members. a) All the appointment to the CB board are made independently of the government. b) More than half of the appointments to the CB board are made independently of the government. c) Less than half of the appointments to the CB board are made independently of the government. d) Gov't has influence in all the appointments to the CB board. 2 0.66 0.33 0.00 Mandate duration of the more than half of the CB board members . a) b) c) d) e) 3 1.00 Equal to or more than eight years Between six and eight years Five years Four years Less than four years Government (or other fiscal branches representatives ) participation at CB meetings , where monetary decisions are taken. a) No government representation at CB meetings. b) Gov 't represented at CB meetings, but without right to vote c) Gov ' t represented at CB meetings , with right to vote 1.00 0.50 0.00 Political Independence 4 Ultimate responsibility and authority on monetary policy (MP) decisions. a) CB has the ultimate/final responsability in MP decisions. b) CB has not the ultimate responsability in MP decisions. 5 1.00 0.00 Price stability. a) It is the sole objective. b) It is one of two objectives, but preference is given to price stability. c) It is one among various other objectives. d) Law does not establish anything about policy objectives. 28 1.00 0.66 0.33 0.00 6 Banking supervision. a) Not considered in the objectives or functions of the CB. b) It is one of the CB functions or objectives, where we find also price stability as a policy objective. c) It dominates other CB functions or objectives. 7 1.00 0.50 0.00 Monetary policy (MP) instruments a) CB enjoys autonomy in MP instruments selection b) CB is not autonomous in the selection of MP instruments. 1.00 0.00 Economic and Financial Independence 8 Government financing. a) CB cannot directly finance the gouvernment b) Law allows that CB provides credit facilities to government and other financing help. 9 1.00 0.00 Ownership of the central bank's equity capital. a) b ) c) d) Government does not own any central bank's capital. Government owns less than half of the central banks capital. Government owns more than half of the central banks capital. Government owns all the central banks capital. Source : De Souza(2001) 29 1.00 0.66 0.33 0.00 2. Pays & les nouvelles lois pour augmenter l'autonomie de leurs Banques Centrales Date of New Law or Latest Amendement Countries Number 1913 USA 1 1968 Kuwait 1 1973 West African States 8 1980 1981 Bahrain 1 1989 Malawi 1 1992 Barbados,Colombia,Jordan,Mozambique,Philippines 5 1993 Morocco,Peru 2 1994 Madagascar, Malaysia, Trinidad&Tobago,Turkmenistan 4 1995 Bolivia, China, Tanzania 3 1996 Armenia,Cambodia,El Salvador,Tajikistan, Zambia 5 1997 Angola,Eritrea,South Korea,Kyrgyz Rep., Namibia,Praguay,Qatar,Rwanda 8 1998 Belgium,Fiji,Finland,Italy,Nigeria,Spain 6 1999 Botswana,Estonia,Kzakhstan,LaoPDR, Liberia,Norway, Romania,Singapore,Ukraine 9 2000 Bhamas,Brasil,France,Lesotho, Netherlands, Oman,Papua New Guinea,Sierra Leone, South Africa, Switzerland, Tunisia, Uzbekistan,Yemen 13 2001 Canada, Croatie,Georgia,Hangary, Iceland,Jamaica, Japon,Kenya, Lithuania,Moldava,Nicaragua,Portugal,Sweden,Turkey, United Kingdom,Vnezuela 16 2002 Australia,Austria,Bulgaria, Cape Verde, Chile, Cyprus, Czech Rep, Germany, Guatemala, Honduras, Latvia, Macedonia, Nepal, Pakistan, Russia, Slovenia, Sudan 17 2003 Argentina,Bosnia&Herzegovina,New Zealand, Serbia 4 30 2004 Poland 1 31 3. Calcul de l'indépendance légale de la Banque Centrale (De souza2001) Indépendance Nbr Pays ou institution Personnelle Politique Economique et financier Totale Rang 1 Argentina 1.25 1.83 1 4.08 14 2 Australia 0.5 2.16 0 2.66 30 3 Austria 1.66 2.16 1 4.82 10 4 Belgium 1.75 1.5 0 3.25 26 5 Canada 0.5 1.83 0 2.33 31 6 Chile 2 1.83 1 4.83 9 7 Czech Reoublic 2.75 2.16 1 5.91 3 8 Denmark 2.16 1.83 0 3.99 17 9 EMU-ECB 2.5 2.66 1 6.16 1 10 Finland 2.5 2.66 1 6.16 2 11 France 1.5 2.66 1 5.16 7 12 Germany 1.25 1.83 1 4.08 15 13 Greece 1.58 2.16 1 4.74 11 14 Hungary 1.58 1.83 0 3.41 23 15 Iceland 1.75 2.33 0 4.08 16 16 Ireland 1 2.16 1 4.16 13 17 Italy 2.16 2.16 1 5.32 6 18 Japan 1 1.83 0 2.83 29 19 Korea, Rep 0.75 2.16 0 2.9 28 20 Luxembourg 1.25 2.16 1 4.41 12 21 Mexico 1.83 1.33 0 3.91 18 22 Netherlands 1.75 2.16 0 3.91 18 23 New Zealand 1.83 2.16 1 4.99 8 24 Norway 1.58 1.83 0 3.41 24 25 Poland 1.25 2.16 0 3.41 25 34 26 Portugal 0.5 2.16 1 3.66 21 27 Spain 0.75 2.16 1 3.91 19 28 Sweden 2.75 2.16 1 5.91 4 29 Switzerland 2.08 2.33 1 5.41 5 30 Turkey 1.66 1.83 0 3.49 22 31 United States 2 1.83 0 3.83 20 35 5. Classification des pays par leurs niveaux de revenu.
49,025
35/hal.archives-ouvertes.fr-hal-01925898-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
9,897
15,389
26 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches 3.5 Réception par les utilisateurs et influence sur les jeunes Les recherches sur la réception des discours et leur influence sur les jeunes sont très limitées. Les auteurs se concentrent pour la plupart sur la réception par les utilisateurs se réclamant de groupes islamistes extrémistes violents, et très peu s'intéressent vraiment aux effets d'une telle propagande sur les jeunes en général. Les recherches se présentent pour l'essentiel comme des études descriptives sur la démographie des partisans en ligne de groupes extrémistes, dont la méthodologie souffre des limites qu'impose la difficulté d'obtenir des données concernant l'âge, le sexe et la localisation géographique. La procédure habituelle consiste à oberver les salons de discussion et les vidéos YouTube, et à noter les profils des utilisateurs et les commentaires qui leur sont associés, en distinguant différentes catégories : « partisan », « critique », « ni l'un ni l'autre » ou « impossible à déterminer » (Conway, 2008). Ce que ces études peuvent nous dire, c'est que les jeunes sont un public ciblé, chose que nous savions déjà, et se répartissent entre jeunes âgés de plus de 13 ans (âge légal pour s'inscrire sur certains réseaux sociaux, même s'il est notoire qu'un important pourcentage d'inscrits sont encore des enfants), adolescents âgés de 13 à 18 ans, et jeunes adultes dont l'âge est compris entre 18 et 34 ans (Conway et McInerney, 2008). Nous avons trouvé deux études empiriques sur la manière dont les jeunes sont influencés en ligne. Bouzar, Caupenne et Sulayman (2014) présentent les résultats d'entretiens réalisés auprès de 160 familles françaises compt des enfants radicalisés (mais non violents), pour la plupart âgés de 15 à 21 ans. Dans leur grande majorité, ces jeunes affirmaient avoir été radicalisés sur l'Internet, et ce quels que soient le profil et la dynamique de leur famille. Une très grande majorité de ces familles (80 %) n'adhéraient à aucune croyance ou pratique religieuse particulière, et seulement 16 % appartenaient à la classe ouvrière (Bouzar, Caupenne et Sulayman, 2014). Cela étant, on ne sait pas si ces conclusions très générales reflètent la participation à des groupes de communication entre pairs en ligne ou hors ligne, que les jeunes interrogés pourraient avoir cherché à dissimuler. Le rôle de facteurs sociopolitiques distincts de l'influence subie sur l'Internet est une autre inconnue qui incite à accueillir avec prudence les affirmations des jeunes interrogés. Wojcieszak (2010) a analysé des données transversales et textuelles recueillies auprès de participants des forums de discussion néo-nazis. L'auteur note que l'extrémisme progresse au même rythme que la participation en ligne, probablement du fait des influences qui s'exercent sur le plan de l'information et en matière normative au sein des groupes en ligne. De plus, l'exposition dans le monde réel à des parties et à des vues différant des valeurs du groupe extrémiste a dans certains cas renforcé les croyances radicales en ligne (Wojcieszak, 2010). De nombreux auteurs avancent des causes possibles en associant la radicalisation en ligne à des facteurs externes. Les hypothèses souvent citées mentionnent des facteurs et motifs de mécontenement social externes, ainsi que des facteurs psychologiques internes communément répertoriés dans la littérature, tels que la quête d'identité et de sens, les inégalités croissantes en Europe et dans d'autres sociétés, le chômage et de moindres possibilités de développement, en particulier pour les jeunes issus des minorités, l'exclusion, la discrimination et l'inégalité, toutes tendances massivement exploitées dans les discours 27 extrémistes (voir par exemple le rapport ATHENA, 2015 ; Schils, 2013 ; Umar et Mustapha, 2015). Mais, là encore, aucun chercheur n'a procédé à des vérifications empiriques de ces associations supposées. Des rapports relevant de la littérature grise ont tenté de distinguer plusieurs phases dans la radicalisation en ligne, la plupart sur la base d'études de cas. La phase 1 est souvent décrite comme celle du « filet dans laquelle le discours extrémiste vise à attirer l'ensemble d'une population ; la phase 2 est celle de l'« entonnoir », dans laquelle les individus capturés dans le « filet » sont transformés en membres dévoués par l'instauration de liens sociaux, des discussions et l'exposition aux idées du groupe ; puis vient la phase 3 souvent décrite comme celle de l'« infection », lors de laquelle les cibles choisies sont orientées vers l'autoradicalisation par l'exposition à des matériels et des conseils radicaux, suivie enfin par la phase 4, celle de l'« activation » des jeune prêts à recevoir des ordres transmis par l'intermédiaire des recruteurs (Weimann, 2015). Aucune donnée empirique ne vient ici non plus conforter la validité de l'hypothèse. Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches RÔLE DES MÉDIAS SOCIAUX DANS LA RADICALISATION VIOLENTE DES JEUNES DANS LE MONDE ARABE ET EN AFRIQUE 4 4.1 Un champ de recherche récent et en plein essor Les recherches en langue arabe sur la radicalisation et les médias sociaux sont récentes et, pour la plupart, descriptives (littérature grise, articles de presse ou textes semi-académiques). Il y a à cela plusieurs raisons. D'une part, les travaux sur la radicalisation violente portent dans leur majorité sur la genèse historique, politique et religieuse des idéologies djihadistes violentes (Abu Haniyya et Roummane, 2015 ; Chqayr, 2014 ; Al-Khatib, 2014 ; Hassan, 2015), sur les profils sociologiques de leurs adeptes (El-Haj Salem, 2015) et sur leur propagande (Abdel-Fattah, 2014 ; Makram, 2015 ; Ben Ahmed Ar-Ramih, 2015). D'autre part, l'utilisation intensive des médias sociaux par des groupes radicaux violents, en particulier l'État islamique, est récente, puisqu'elle remonte à 2010. Enfin, ces recherches demeurent d'une portée limitée du fait que la plupart ne procèdent pas d'une approche scientifique et ne reposent ni sur une base théorique claire ni sur l'application de méthodes de recherche éprouvées pour l'analyse de situations empiriques particulières. Plusieurs initatives ont été lancées récemment, dont l'organisation en novembre 2016 par la Faculté des sciences de l'information et de la communication de l'Université du Roi Khaled en Arabie saoudite d'une conférence internationale ayant pour thème les médias et le terrorisme. En septembre 2016, plusieurs centres de recherche parmi lesquels le Centre d'études et de recherches stratégiques des Émirats Arabes Unis, le Centre culturel Issa de eïn et l'Institut royal d'études stratégiques de Rabat ont créé ensemble le « Tahallof 'Asifat al-Fikr » (Coalition de groupes de réflexion), qui vise à améliorer la coopération régionale dans le domaine de la recherche sur le terrorisme et la violence, et de la lutte contre ces phénomènes, mais on ignore pour l'heure la place qui y sera donnée aux recherches et vérifications empiriques. L'un de ses objectifs premiers est d'élaborer une politique de diffusion d'un contre-discours dans les médias. 4.2 La recherche sur la radicalisation violente dans le monde arabe, en tant que nouvel enjeu géopolitique L'analyse de l'évolution des recherches sur la radicalisation violente dans le monde arabe et de la logique qui les sous-tend révèle une correspondance avec les stratégies géopolitiques des principales forces politiques dans cette région. Cette évolution a contribué à l'émergence d'un certain nombre d'experts et de spécialistes, en particulier au Moyen-Orient. Les travaux sur le terrorisme, l'extrémisme et la radicalisation violente sont liés aux conflits en cours dans les pays de la région et à leur politique en matière de sécurité, et s'intensifient après les attentats du 11 septembre. Depuis 2001, des pays du Golfe tels que l'Arabie saoudite ont défini une stratégie de recherche et pris plusieurs mesures contre le terrorisme et la radicalisation violente. En 2004, l'Arabie saoudite a lancé sa première campagne numérique de lutte contre le terrorisme intitulée Al-Sakina (tranquillité). Cette initiative, menée en coopération avec les États-Unis, s'inscrit dans le cadre de l'un des programmes internationaux de déradicalisation les plus coûteux et de plus longue haleine du monde. Aux côtés de l'Arabie saoudite, des centres de recherche, des intellectuels et/ou des personnalités religieuses prennent une part croissante à ce nouvel effort de recherche. Depuis 2004, le Centre du Roi-Fayçal pour la recherches et les études islamiques (fondé en 1983) et l'Université du Roi Saoud ont publié trois rapports concernant la radicalisation et les médias sociaux (« Une vision du concept de terrorisme et la position de l'Islam » par Abderrahmane bin Sulaiman al-Matroudi ; « Propagande de la terreur : les médias et les stratégies opératoires de Daech » par Mohammad El Araby ; « Les pouvoirs invisibles de Daech dans les nouveaux médias » par Abderrahmane al-Qahtani et Abderrahmane al-'Abisi). Ces rapports se fondent sur une analyse transversale des stratégies de l'État islamique dans les médias et de son utilisation des réseaux sociaux pour attirer les jeunes Saoudiens et pour financer des actions terroristes. Leurs conclusions montrent comment l'État islamique utilise des informaticiens pour pirater des adresses électroniques et espionner les courriels à des fins terroristes et comment le groupe se sert des réseaux sociaux, notamment pour répandre son idéologie, recruter de nouveaux sympathisants et coordonner en langage codé l'exécution des tâches et missions confiées à ses membres. Dans le même temps, le Centre d'études d'Al-Jazeera au Qatar – une unité de recherche créée en 2006 et rattachée à la chaîne Al-Jazeera – publie un nombre croissant de rapports sur la radicalisation violente depuis la crise syrienne. Entre 2014 et 2016, il a fait paraître plusieurs dizaines d'études et de rapports. Ceux-ci traitent principalement de la genèse de l'État islamique, de sa structure (Abu Haniyya, 2014 ; Abou Roummane, 2014), de son idéologie (Shams, 2016), de ses capacités militaires (Achour, 2016) et du profil sociologique de ses sympathisants (El-Amine, 2014). Le centre a également tissé des liens avec des chercheurs de langue arabe, en particulier du Maghreb, qui étudient le phénomène de radicalisation violente, notamment Benissa al-Demni et Mahmoud Abdel-Wahid. En juillet 2015, l'Université égyptienne Al-Azhar a créé l'Observatoire d'Al-Azhar en langues étrangères (http://www.azhar.eg), qui constitue l'une des plus importantes bases de données du monde sur l'islam et le monde musulman et sur les idéologies radicales violentes. L'Observatoire publie des rapports et des articles en huit langues : arabe, français, anglais, allemand, ourdou, swahili, persan et chinois et s'efforce d'élaborer des contrediscours s'opposant à la radicalisation violente. Ce corpus comprend des centaines de 30 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches rapports quotidiens, hebdomadaires et mensuels. L'Observatoire d'Al-Azhar emploie une équipe pluridisciplinaire de chercheurs qui s'attache à déchiffrer le phénomène de la radicalisation violente selon des approches transversales, en particulier sous l'angle des média . En décembre 2015, l'Observatoire a publié un rapport sur « L'utilisation des réseaux sociaux par Daech », qui contient une analyse des images et des textes diffusés dans les médias par l'État islamique à des fins de propagande. Ce rapport montre le rôle central des réseaux sociaux dans la stratégie de recrutement de l'État islamique. Ousama Nabil, chef de la section en langue française et directeur de l'Observatoire, a publié de nombreux autres rapports sur le recrutement d'adolescentes par l'État islamique, la stratégie de ce dernier en Libye et ses efforts pour former de nouvelles générations de combattants. Un certain nombre de chercheurs commencent à faire autorité en Jordanie, au Liban et en Iraq (notamment Hassan Abu Hania et Mohammed abu Roummane en Jordanie, AbdelGhani Imad et Hazem el-Amine au Liban, et Hisham al-Hashimi en Irak). Devenus des chefs de file de ce nouveau domaine de recherche dans le monde arabe, Al-Hashimi, al-Amine, abu Haniyya, et abu Roummane interviennent souvent sur les chaînes de télévision par satellite pour informer et donner leurs avis d'experts sur le djihadisme violent. Malgré leur importance pour la compréhension de la radicalisation violente dans le monde arabe, leurs travaux n'apportent cependant que peu d'éléments fondés sur des recherches empiriques en ce qui concerne la radicalisation en ligne. Parmi les pays du Maghreb, l'Algérie produit des travaux sur le terrorisme depuis 2000 – suite à la montée de l'extrémisme violent dans ce pays au début des années 1990. Ces initatives n'ont toutefois pas débouché sur l'adoption d'une stratégie nationale en matière de recherche, ni sur le développement de réseaux de chercheurs. Néanmoins, certains spécialistes des mouvements islamistes tels que le sociologue marocain Abdallah al-Rami, le Tunisien Abdellatif Hannachi (historien) et Abdel-Sattar al-Aydi (chercheur et journaliste), ainsi que l'Algérien Fawzi Hawamdi, ont contribué activement au débat public sur la radicalisation violente, en particulier dans des interviews dans la presse ou dans les médias audiovisuels nationaux. Même si ce champ de recherche est encore dominé par des auteurs masculins, nous avons repéré un certain nombre de chercheuses qui travaillent sur la question, parmi lesquelles les Égyptiennes Amal Mokhtar et Rania Makram (Centre Al-Ahram d'études politiques et stratégiques), Mariam Wahid (Centre arabe de recherche et d'études), Riham al-Abbasi (Centre arabe d'études sur la démocratie et l'économie et sur les politiques stratégiques) et Noura Bendari Abdel Hamid Fayed (Centre démocratique arabe d'études stratégiques, politiques et économiques). Elles s'intéressent en particulier à l'étude relations entre la radicalisation violente et les médias soci aux à travers l'analyse des discours radicaux, et au rôle des nouveaux médias dans le recrutement des jeunes . Certains groupes de chercheuses se signalent par leurs travaux sur le rôle des femmes, en particulier en Égypte, au Centre Al-Ahram d'études politiques et stratégiques et au Centre démocratique arabe d'études stratégiques, politiques et économiques. Elles analysent les discours radicaux et le rôle des nouveaux médias dans le recrutement des jeunes (Mokhtar, 2015 ; Wahid, 2015 ; Makram 2015 ; Al Abbasi, 2016). L'annexe 2 revient de manière plus détaillée sur les résultats de notre inventaire et les études émanant plus particulièrement du monde arabe et musulman que nous avons examinées. 4.3 Radicalisation violente ou terrorisme : qui dit quoi dans le monde arabe? L'analyse du profil des chercheurs du monde arabe qui se sont intéressés à la radicalisation violente et de leurs publications révèle une prééminence de spécialistes des mouvements islamistes. Ce sont le plus souvent des chercheurs en sciences humaines et sociales, dont certains sont spécialisés dans l'étude des médias et de l'opinion publique, des relations internationales, voire de la sécurité. Un autre trait particulier de la recherche sur la radicalisation violente dans la région arabophone est la contribution dans ce domaine de chercheurs religieux, principalement de pays du Golfe. Leur objectif premier s'inscrit dans le cadre de stratégies nationales visant à s'opposer aux idées confessionnelles prônées par les groupes radicaux violents. Dans cette logique, ces groupes sont associés au terrorisme plutôt qu'à des concepts tels que la radicalisation ou le djihadisme. Dans d'autres régions, les experts utilisent des expressions telles que salafisme djihadiste, djihadisme ou radicalisation violente. On note chez la plupart des chercheurs de langue arabe une tendance manifeste à éviter de se référer à l'islam et à son champ sémantique pour qualifier les groupes radicaux violents. C'est pour cette raison aussi que les chercheurs de la région préfèrent utiliser l'acronyme arabe Daech ou l'expression « Organisation étatique » plutôt que de parler de l'« État islamique ». La plupart des travaux publiés dans le monde arabe ne sont pas centrés sur la relation entre la radicalisation violente et l'Internet ou les médias sociaux, et ne s'attachent pas à évaluer les effets des initiatives de prévention et d'intervention en ligne. La contribution des chercheurs arabes a toutefois un caractère unique et soulève des questions de définition et de conceptualisation du phénomène de radicalisation violente, en même temps qu'elle éclaire sur la perception de ce phénomène dans la population de la région. De plus, la recherche arabe sur la radicalisation violente se distingue de manière générale des travaux menés en Amérique du Nord et en Europe par le fait qu'elle évite le paradigme de la manipulation jeunes et l 4.4 Les jeunes Arabes dans les médias sociaux : activisme contre le radicalisme violent Les jeunes Arabes sont de grands consommateurs de médias sociaux et en particulier de Facebook, qui figure parmi les dix sites les plus fréquentés par les internautes arabes, une tendance qui a rapidement trouvé sa traduction dans la sphère politique (Gonzalez-Quijano, 2012). Selon une étude réalisée par la Faculté de gouvernance Mohamed Ibn Rachid aux Émirats Arabes Unis, le nombre d'utilisateurs de Facebook dans 22 pays arabes est passé de 54,5 millions en 2013 à 81,3 millions en 2014, ce public étant constitué en majorité de jeunes. L'étude de la littérature régionale révèle le rôle joué par les réseaux sociaux, en particulier Facebook et Twitter, utilisés par les jeunes Arabes comme plateformes d'expression collective sur les questions d'actualité, les conflits et les guerres (notamment la situation à Gaza) (Salem, Mourtada et Alshaer, 2014). En Iraq, par exemple, de jeunes internautes et blogueurs ont lancé plusieurs campagnes sur Facebook et Twitter au début des opérations militaires entreprises pour libérer les principales villes occupées par l'État islamique (Falloujah et Mossoul). Au Maroc, d'autres initiatives ont visé le même objectif, comme celle de Hamzah al-Zabadi sur Facebook (‫ شعاد_دض_ةبراغم‬# ; Marocains contre Daech), qui consistait à partager toutes sortes de contenus (images, textes, etc.) pour s'opposer au discours de l'État islamique et le contredire. La participation d'acteurs de la société civile à la lutte contre le terrorisme et la radicalisation violente menée sur le Web dans la région arabe demeure modeste pour plusieurs raisons, notamment l'absence de médias politiques se consacrant à cette lutte. Les travaux examinés ne traitent pas l'impact de cette forme de contestation. 4.5 Les premières recherches en Afrique Les recherches sur la radicalisation en ligne sont encore peu nombreuses dans l'Afrique subsaharienne. Pourtant, l'Afrique abrite en son sein un puissant groupe extrémiste : « Boko Haram », dont le nom véritable est Jama'atu Ahlu-Sunna wal Djihad Adda'wa Li (« Groupe 33 sunnite pour la prédication et le djihad »), créé en 2002 et qui a récemment fait allégeance à Daech. Le réseau dispose de moins de ressources et de moyens financiers que Daech, mais sa communication semble être entrée dans une nouvelle ère, caractérisée par le recours aux médias sociaux, surtout depuis son allégeance (Ould el-Amir, 2015). Ce groupe terroriste diffuse sa doctrine et sa propagande (également en français et en anglais) sur l'Internet et adapte les stratégies de communication de Daech au contexte subsaharien en utilisant des vidéos plus sophistiquées. Par sa présence sur les réseaux numériques les plus fréquentés (Twitter, Instagram), Boko Haram rompt avec les formes de communication traditionnelles dans la région en envoyant aux agences de presse des vidéos de propagande sur clés USB ou CD-ROM (Olivier, 2015). Les analyses de ces contenus révèlent un changement important, les longs monologues du chef Abubakar Shekau, mal rédigés et mal traduits, cédant la place à des messages et à des vidéos qui séduisent les jeunes Subsahariens. Aujourd'hui, Boko-Haram dispose d'une véritable agence de communication appelée « al-Urwa al-Wuthqa » (littéralement « le lien le plus solide »). Le groupe multiplie en outre ses activités sur Twitter, en particulier via ses smartphones, ainsi que ses chaînes d'information sur YouTube. La plupart des tweets et commentaires de ses partisans dénoncent le gouvernement nigérian et appellent à soutenir le mouvement Boko . Ils sont d'abord rédigés en arabe, puis traduits et retransmis en anglais et en français, preuve de la volonté du groupe de s'inscrire dans ce qu'il considère comme un djihad mondial. Dans une étude récente datant de 2015, des chercheurs ont montré que Boko Haram suscitait aussi des tweets exprimant le rejet du mouvement par des personnes n'appartenant pas à l'organisation (Varin, 2015). 34 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches RÔLE DES MÉDIAS SOCIAUX DANS LA RADICALISATION VIOLENTE DES JEUNES EN ASIE 5 La croissance rapide de l'Internet et des réseaux sociaux a fait de la radicalisation en ligne un phénomène mondial, qui touche en particulier l'Asie. La radicalisation en ligne en Asie peut être étudiée en distinguant quatre aires géographiques, à savoir l'Asie centrale, l'Asie du Sud, l'Asie du Sud-Est et l'Asie de l'Est. L'Asie centrale comprend l'Ouzbékistan, le Turkménistan, le Kazakhstan, le Kirghizistan et le Tadjikistan. L'Asie du Sud est représentée par le Pakistan, l'Inde et le Bangladesh. L'Asie du Sud-Est inclut principalement l'Indonésie, les Philippines, la Thaïlande, la Malaisie et le Viet Nam, tandis que la Chine, le Japon et la Corée du Sud représentent l'Asie de l'Est. Nous nous concentrerons dans ce chapitre sur les pays qui répondent aux critères suivants : a) compter parmi les dix plus gros utilisateurs de l'Internet en Asie et être confronté à des problèmes manifestes sur le réseau, b) figurer sur la liste des pays touchés par le terrorisme ou l'extrémisme violent (NCTC, 2015). 5.1 Les différentes formes de radicalisation violente et leurs manifestations en Asie L'Asie comprend cinq des dix pays du monde les plus affectés par le terrorisme. L'Afghanistan, le Pakistan et l'Inde figurent parmi les cinq premiers, avec respectivement 1708, 1009 et 791 attaques jusqu'en 2015. Les attentats de novembre 2008 à Mumbai (Bombay) ont suscité une vague d'études sur le terrorisme dans la région (Smith, 2013). Les travaux sur la radicalisation en Asie distinguent clairement radicalisation, terrorisme et foi islamique (Tadjbakhsh, 2015 ; Heathershaw et Montgomery, 2014). Ils identifient trois types de radicalisation correspondant à des motivations et à des causes particulières. Même si ces causes et ces motivations varient et se recoupent partiellement, les chercheurs les différencient selon les pays et les contextes (Khalid et Leghari, 2014; Tadjbakhsh, 2015), comme suit. 5.1.1 Radicalisation répondant à des motivations politiques La radicalisation à des fins politiques s'observe dans un ensemble particulier de pays asiatiques. En Asie centrale et en Chine, par exemple,la radicalisation est un phénomène associé à ce que la rhétorique locale appelle « les trois maux » (Wu, 2002 ; Yang, 2014 ; Li et Zhao, 2015), c'est-à-dire le terrorisme, le séparatisme et l'extrémisme (« Convention 35 de Shanghai pour la lutte contre le terrorisme, le séparatisme et l'extrémisme », signée en 2001 par les dirigeants des six pays membres de l'Organisation de Shanghai pour la coopération [SCO], à savoir la Chine, la Fédération de Russie, le Kazakhstan, l'Ouzbékistan, la République kirghize et le Tadjikistan). Le séparatisme est considéré dans cette région comme une forme de radicalisation du fait de l'existence de plusieurs groupes politiques ayant des revendications séparatistes, souvent liées à l'islam (Tadjbakhs, 2015) (groupes séparatistes sunnites en Iran, Mouvement islamique du Turkestan oriental, supposé exercer une influence sur les populations ouïghoures de la Région autonome ouïghoure du Xinjiang en Chine, ou encore groupes de Tchétchènes du Nord du Caucase en Russie). Dans les pays asiatiques, la radicalisation politique semble propre à certaines régions. Elle a un caractère localisé et interne malgré ses liens directs ou indirects avec des groupes extérieurs ou transfrontières. Le Mouvement islamiste du Turkestan oriental est ainsi qualifié d'organisation terroriste en Chine. Dans la Région autonome des provinces musulmanes de Mindanao, aux Philippines, divers groupes militant pour l'indépendance politique sont considérés comme des représentants d'un mouvement séparatiste musulman (Lidasan, 2015). 5.2 Radicalisation et médias sociaux en Asie Un rapport publié par "We Are Social" en 2016 révèle que l'Asie de l'Est et l'Asie du Sud-Est sont le premier et le deuxième plus gros marchés pour les médias sociaux dans le monde, devant l'Amérique du Nord. Selon ce même rapport, Facebook et Facebook Messenger sont les médias sociaux et outils de communication dominants, suivis par Twitter, Line et Skype. La Chine est l'exception notable puisque Facebook Messenger y est largement distancé par les outils de médias sociaux chinois. Nous n'avons pas trouvé de travaux scientifiques (rédigés en anglais, français, arabe, espagnol ou chinois) s'intéressant à l'Internet et aux médias sociaux sous l'angle de la radicalisation violente dans les pays asiatiques, sauf en Chine et en Indonésie. La Chine offre un tableau très différent de la plupart des autres pays en ce qui concerne les médias et réseaux sociaux dominants. Les plateformes américaines telles que Google, Yahoo! Facebook, Twitter et YouTube ont un taux de pénétration très faible du fait des restrictions imposées par l'État et du solide monopole dont jouissent les moteurs de recherche et plateformes Internet nationaux en langue chinoise. Baidu, le moteur de recherche le plus utilisé, propose à peu près les mêmes fonctionnalités que Google. Sina Weibo (dont le nom signifie « microblog » en chinois), QQ et Weixin (baptisé Wechat pour les utilisateurs étrangers), sont les plateformes de réseautage social et de communication en ligne les plus populaires. Ils comportent des fonctions proches de celles de Facebook et Twitter. Les Chinois sont de gros consommateurs de médias sociaux : 282 millions d'utilisateurs actifs mensuels (MAU) pour Sina Weibo, 250 millions pour QQ, et 846 millions au total pour Weixin et WeChat. Les chercheurs chinois montrent un intérêt croissant pour l'étude de la relation dialectique entre médias sociaux et radicalisation violente (Tang, 2013). Leurs travaux sont publiés pour la plupart en chinois et avec une terminologie propre à cette langue, de sorte qu'elles sont d'un accès limité pour la communauté internationale de lecteurs, d'étudiants et de chercheurs pratiquant d'autres langues. Les principaux foyers de recherche sont les centres de recherche sur la Russie, l'Europe orientale et l'Asie centrale de l'Académie chinoise des sciences sociales, ainsi que l'Institut des religions du monde et l'Institut national de stratégie internationale, rattachés à cette même Académie. 38 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches INITIATIVES DE PRÉVENTION EN LIGNE : CONTRE-DISCOURS, DISCOURS CONCURRENTS ET ÉDUCATION AUX MÉDIAS ET À L'INFORMATION 6 Même si aucun lien direct de cause à effet n'est postulé, l'examen de la littérature amène à penser que les médias sociaux font partie des facteurs corrélés qui, en se combinant à d'autres facteurs sociaux et psychologiques, pourraient faciliter le processus de radicalisation. On relève l'existence de plusieurs initiatives de prévention en ligne se répartissant en deux grandes catégories : (a) Les contre-discours et discours concurrents (b) L'éducation aux médias et à l'information (EMI). La littérature ne fournit guère de preuves de l'efficacité d'une telle utilisation des médias sociaux, et les quelques études existantes concernent principalement les pays du Nord, signe de la relative rareté de telles initiatives et des recherches à leur sujet dans la plupart des autres régions du monde. 6.1 Les contre-discours Certains auteurs suggèrent que le mode d'intervention le plus prometteur consiste à opposer à la rhétorique extrémiste un contre-discours qui en conteste les postulats. On ne relève toutefois dans la littérature guère d'accord ou de preuves quant à l'efficacité de telles mesures pour combattre la radicalisation violente. Certains travaux récents donnent néanmoins à penser que les contre-discours ou discours concurrents pourraient être une stratégie fructueuse en matière de prévention (Van Eerten, Doosje, Konijn, De Graaf, et De Goede, sous presse, 2017). Les avis sont tout aussi peu partagés ou étayés sur la question de savoir quel serait le meilleur type de contre-discours. Certains considèrent que les messages insistant sur le fait que les groupes djihadistes violents causent avant tout du tort aux musulmans auraient un fort impact (Archetti, 2012 ; Cornish, Lindley-French et York, 2011 ; Corman, 2011 ; Stevens et Neumann, 2009). Nous n'avons trouvé aucune étude cherchant à déterminer dans quelle mesure les reportages crédibles contrarient les discours prônant la violence extrémiste, ou sont au contraire récupérés dans ces mêmes discours. 39 Si bon nombre d'initiatives visent à diffuser un contre-discours ou un discours concurrent, il n'existe pas pour l'heure d'études empiriques sur l'efficacité de ces mesures de prévention sur la radicalisation violente en ligne. De fait, le recours aux contre-discours est actuellement vivement contesté comme risquant de produire des résultats contraires, encore que cela n'ait pas fait non plus l'objet de recherches systématiques (Harris-Hogan, 2016). Au cours de la dernière décennie, le gouvernement des États-Unis a lancé deux programmes en ligne de lutte contre la radicalisation conçus pour riposter aux efforts de propagande anti- e et de désinformation d'Al-Qaïda ou de l'État islamique. Ces programmes visent à gagner la « guerre des idées » en contestant la rhétorique djihadiste. Des études montrent que, aux États-Unis comme dans d'autres pays, ces programmes souffrent d'un grave déficit de crédibilité (Archetti, 2012 ; Cornish, Lindley-French et York, 2011 ; Corman, 2011 ; Stevens et Neumann, 2009). La participation de pays occidentaux à des conflits et au bombardement de civils, à des campagnes de détention arbitraire, à des actes de torture, etc. est utilisée par l'État islamique et d'autres groupes pour peindre une image d'hypocrisie, de duplicité et de propagande de nature à affaiblir les contre-discours et à exacerber le ressentiment du monde musulman à l'égard des États-Unis et de ces autres pays. Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches 6.2 EMI et réflexion critique L'éducation aux médias et à l'information est utilisée depuis longtemps déjà pour combattre les contenus nocifs et les présentations violentes, y compris la propagande (Gerbner, 1998). Initialement, l'EMI visait surtout à lutter contre la désinformation (en particulier dans les publicités) en développant le sens critique à l'égard des médias. Dans les années 1980, on a aussi cherché à renforcer les compétences culturelles et l'aptitude à la créativité par des pédagogies actives de façon que les médias soient un instrument d'autonomisation (Hobbs et Jensen, 2009 ; Potter, 2013). Depuis les années 2000, le concept de médias englobe l'Internet et les médias sociaux, et des questions relatives aux aspects éthiques de l'utilisation des médias en ligne sont venues s'ajouter aux débats traditionnels sur les contenus et les comportements nocifs, en même temps que l'on prêtait une attention accrue aux gratifications recherchées par les utilisateurs des médias. L'UNESCO accompagne cette évolution depuis les années 1980. La Déclaration de Grünwald, adoptée en 1982, est le premier document qui ait expressément inclus l'éducation aux médias dans le programme de l'Organisation et souligné la nécessité pour les États d'aider leurs citoyens à porter un regard critique sur les médias. La Déclaration de Fès de 2011 est une autre étape importante, qui a consacré l'élargissement de l'éducation aux médias, devenue éducation aux médias et à l'information. En 2014, la Déclaration de Paris sur l'éducation aux médias et à l'information à l' numérique a pris acte de l'avènement du numérique et appelé toutes les parties prenantes à reconnaître que la formation aux compétences relatives aux médias et à l'information est un des enjeux du numérique et comporte une dimension éthique en tant que droit de l'être humain. La création de l'Alliance mondiale pour les partenariats sur l'éducation aux médias et à l'information (GAPMIL) a encore affermi cette prise de conscience mondiale. Depuis 2007, l'UNESCO joint ses efforts à ceux de l'Alliance des civilisations de l'Organisation des Nations Unies pour conjuguer EMI et dialogue interculturel (y compris les échanges interreligieux et interconfessionnels) et travailler auprès des migrants, des réfugiés et des jeunes vivant dans des zones de conflit. L'UNESCO n'a cessé de développer son programme d'éducation aux médias et à l'information, qui comprend de nombreux volets, notamment l'élaboration à l'intention des gouvernements et d'autres parties prenantes de principes directeurs pour les politiques et stratégies d'EMI, un programme de formation aux médias et à l'information des enseignants, conçu dans un cadre international, selon une approche sans exclusive et non prescriptive pouvant être adaptée à différents contextes, et le cadre général d'évaluation de l'EMI, qui propose aux pays des conseils d'ordre méthodologique et des outils pratiques après analyse de l'état de préparation et des compétences des acteurs à différents niveaux de la société. La multiplication des attentats terroristes a fait prendre conscience de la nécessité d'inculquer par l'EMI une approche plus critique des médias, en prêtant également attention au problème de la radicalisation. Il est grand temps que l'éducation aux médias et à l'information occupe une place centrale dans l'enseignement dispensé à tous les niveaux du système éducatif, et soit également promue dans les cadres éducatifs non formels et informels. L'EMI peut contribuer efficacement à renforcer le dialogue et la compréhension mutuelle entre les cultures, à promouvoir la paix, les droits de l'homme et la liberté d'expression et à combattre la haine, la radicalisation et l'extrémisme violent. De fait, elle est un moyen fondamental de faire acquérir les connaissances indispensables à une réflexion critique, une citoyenneté 41 démocratique, un apprentissage indépendant et une bonne gouvernance. C'est dans ce contexte que l'UNESCO a fort à propos lancé l'Annuaire 2016 de l'éducation aux médias et à l'information et du dialogue interculturel MILID), intitulé « Renforcer les droits de l'homme, combattre la radicalisation et l'extrémisme ». Les attentats terroristse perpétrés contre des journalistes et des organes de presse tels que le Jyllands-Posten au Danemark et Charlie Hebdo en France ont accéléré ce processus. À la suite de la campagne « Je suis Charlie », l'Europe a publié trois documents témoignant d'une évolution dans les politiques publiques en matière d'EMI. Les ministres de l'éducation de l'Union européenne ont adopté en mars 2015 la Déclaration de Paris sur la promotion de l'éducation à la citoyenneté et aux valeurs communes de liberté, de tolérance et de nondiscrimination. Celle-ci met l'accent sur la nécessité de prévenir la radicalisation et la propagande et appelle à coopérer au niveau communautaire, national et local. Le Conseil de l'Union européenne a présenté en mai 2016 ses « Conclusions sur le développement de l'éducation aux médias et de l'esprit critique au moyen de l'éducation et de la formation », qui lient l'EMI et la compétence numérique. Celle-ci « implique la maîtrise et l'usage créatif et critique des technologies de l'information et de la communication » et est décrite comme un « élément essentiel de l'éducation aux médias ». La Directive révisée sur les services de médias audiovisuels (adoptée en 2017) contient un paragraphe sur l'EMI et son importance pour le développement des mineurs et pour la citoyenneté. La Direction générale des réseaux de communication, du contenu et des technologies (DG CNECT) de la Commission européenne, dont le champ de compétence inclut l'éducation aux médias, a appelé à mener des recherches sur l'EMI et la radicalisation. Le programme Horizon 2020 comprend également un volet sur la radicalisation (où mention est faite des médias sociaux et de leur rôle). Des pays de l'Amérique du Nord et d'autres régions du monde ont eux aussi encouragé de plus ample recherches sur les liens entre médias sociaux et radicalisation des jeunes en ligne, mais de manière moins planifiée que dans l'Union européenne (Drotner et al., 2017). Sur le Web, les jeunes sont exposés, intentionnellement ou par accident, à des contenus faisant l'apologie de la haine et de l'extrémisme violent (Grizzle et Perez Tornero, 2016). Les médias sociaux sont un espace privilégié pour une telle exposition, aux côtés d'espaces traditionnels tels que les écoles, les prisons, les lieux de culte et les lieux de travail. Dans le même temps, de nombreux jeunes reconnaissent que l'EMI peut les aider à se protéger contre les contenus haineux radicaux et extrémistes en ligne, et à les combattre (ibid.). Dans cette optique, l'EMI a été également décrite comme une stratégie visant à « réduire la demande de contenus extrémistes par une sensibilisation accrue à la démocratie, au pluralisme et aux idées pacifiques en faveur du progrès » (Neumann, 2013). 42 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches À ce stade de son évolution, l'EMI apparaît comme un concept composite qui, de pratique pédagogique, est devenu un droit social et un projet politique. Dans cette vision unifiée, il importe que l'EMI soit aussi perçue comme un moyen fondamental de produire les connaissances indispensables à une citoyenneté mondiale, et à des modes d'apprentissage et de bonne gouvernance démocratiques (Singh, 2016). En tant que projet politique, l'EMI a pour objectif de mieux protéger les jeunes de la propagande et des contenus nocifs, et d'améliorer leur participation à la vie sociale de façon qu'ils tirent un profit maximal de la liberté d'expression et d'information. En tant que pratique pédagogique, l'EMI promeut un ensemble de compétences propres à renforcer la participation citoyenne et la créativité, ainsi que la réflexion critique. L'initiation au numérique en fait tout spécialement partie intégrante. Comme droit social, l'EMI est ancrée dans des droits universels de l'être humain tels que la liberté d'expression, la participation, le respect de la vie privée, la sécurité et la diversité culturelle (Frau-Meigs, 2017). Les trois dernières décennies ont été marquées par la publication d'un nombre important de travaux examinant l'éducation aux médias et à l'information comme un ensemble spécifique de compétences cruciales (Feilitzen et Carlsson, 2004 ; Hobbs et Jensen, 2009 ; Frau-Meigs, 2011 ; Wilson et al., 2011), comme une pratique réfléchie des médias sociaux dans la société de l'information (Buckingham, 2008 ; Hoechsmann et Poyntz, 2012 ; Livingstone et al., 2012 ; Serres, 2012), et comme un aspect des politiques publiques à l'ère de la convergence (Frau-Meigs et Torrent, 2009 ; Grizzle et al., 2013 ; UNESCO, 2013 ; Celot, 2014 ; FrauMeigs et al., 2017). Une sous-catégorie de ces études insiste sur l'importance de former les enseignants et les parents à l'EMI et de les informer sur l'influence des réseaux sociaux et des jeux vidéo. Toutefois, les recherches axées sur l'observation des jeunes internautes (EU kids on line ; Jenkins et al., 2009 ; Livingstone, 2012 ; Ito et al., 2009) éludent pour la plupart la question de la radicalisation violente. De plus, elles mettent l'accent sur les médias sociaux dominants, comme YouTube ou Facebook, en prêtant moins attention à des médias sociaux plus récents comme Line ou Periscope. 6.3 Les initiatives d'EMI sur la radicalisation, les jeunes et les médias sociaux Plusieurs initiatives formelles et informelles dans lesquelles l'EMI est conçue comme une pratique pédagogique centrée sur l'acquisition d'un ensemble de compétences permettant de résister aux discours attisant la colère et le désir de revanche et/ou l'affirmation de soi par l'extrémisme violent ont été entreprises un peu partout dans le monde. Ces initiatives visent à diffuser en ligne des contre-discours qui soient le reflet authentique de la perception que les jeunes ont d'eux-mêmes et d'autrui, en ce qui concerne en particulier le sentiment d'injustice et l'expérience vécue de la discrimination, de la corruption et des abus commis par les forces de sécurité (Mercy Corps, 2015). À cet égard, l'UNESCO et d'autres acteurs ont organisé avec des jeunes et des journalistes des événements sur la meilleure façon de combattre l'extrémisme et la radicalisation chez les jeunes (2015).13 La nécessité est apparue clairement de sensibiliser les jeunes aux libertés en ligne, mais aussi de former les 13 https://fr.unesco.org/jeunes-internet-combattre-radicalisation-extremisme?language=en 43 journalistes à l'EMI et à la couverture du terrorisme et de l'extrémisme, afin de leur faire prendre conscience de l'influence décisive de leurs reportages.14 Le Département d'État américain a organisé plusieurs séminaires en ligne à l'intention de blogueurs somalis résidant au Canada, en Afrique et en Europe « afin qu'ils se forment les uns les autres aux moyens d'améliorer les fonctionnalités et l'apparence de leurs sites tout en s'adressant à un public plus vaste » (Neumann, 2013). D'autres programmes ciblent directement les jeunes, en partant de l' èse que l'EMI peut améliorer leur capacité de contribuer à marginaliser l'extrémisme, sinon à le contenir (Cohen, 2015). L'Alliance des civilisations a récemment fait porter ses efforts sur les jeunes de la région du Moyen-Orient et de l'Afrique du Nord, en encourageant des initiatives d'EMI en Jordanie et en Turquie.15 Elle soutient aussi des actions s'appuyant sur la culture populaire des jeunes pour les toucher dans des pays tels que la Jordanie et le Kenya.16 Le PNUD a lancé un concours international baptisé "PEACEapp" pour promouvoir l'utilisation de jeux et autres applications comme vecteurs d'échanges culturels, de gestion des conflits et de prévention de la violence. L'UNESCO a entrepris de nombreuses initiatives et projets en matière d'EMI ciblant les jeunes ou tenant compte de leurs besoins, notamment la campagne d'innovation dans les médias sociaux MIL CLICKS,17 la Semaine mondiale de l'EMI pour le renforcement des capacités des organisations de jeunesse,18 un projet d'EMI en Jordanie,19 le projet NETMED20 qui vise notamment à autonomiser les jeunes du Moyen-Orient en leur apprenant, par l'EMI, à s'exprimer à travers la production de médias et la participation aux transformations sociales et politiques. L'Organisation a également soutenu des recherches qui ont abouti à un inventaire des « Possibilités d'éducation aux médias et à l'information au Moyen-Orient et en Afrique du Nord »,21 ainsi qu'à l'organisation, en tant qu'outil d'EMI au service du dialogue et de la tolérance, de cours d'EMI en ligne ouverts à tous (MOOC) en anglais22 et en arabe.23 Au sein des systèmes éducatifs, la littérature montre que les ressources en ligne destinées à être utilisées par les enseignants dans les salles de classe visent le plus souvent à discréditer les théories conspirationnistes et la propagande radicale qui ont cours sur les réseaux sociaux. Elles dénoncent les rumeurs et les fausses nouvelles et encouragent à vérifier les faits en ligne. Elles ne combattent pas la radicalisation violente en soi, mais apprennent à détecter les contenus extrémistes dans les médias. Examiner les médias eux-mêmes a toujours été un aspect d'une éducation aux médias qui prend pour objet des sources « authentiques ». Des analyses d'Inspire, le magazine numérique d'Al-Qaïda, peuvent aider à comprendre comment sa présentation et son contenu sont conçus pour endoctriner et servir la propagande (Sivek, 2013 ; White, 2012). ressources mises à la disposition des 14 UNESCO, 2017. « Les médias face au terrorisme : manuel pour les journalistes », ouvrage de Jean-Paul Marthoz. 15 https://www.unaoc.org/event/media-and-information-literacy-initiatives-jordan-and-mena-region/ http://www.unaoc.org/event/the-role-of-youth-preventing-violent-extremism/ 16 https://www.unaoc.org/2016/08/unaoc-supports-workshop-of-digital-games-development-for-young-urban-refugees-inkenya/ 17 https://fr.unesco.org/MILCLICKS 18 https://fr.unesco.org/semaine-mondiale-emi-2017 19 http://www.med-media.eu/project/jordan-media-institute-unesco-launch-media-information-literacy-project/ 20 http://fr.unesco.org/netmedyouth 21 http://www.nordicom.gu.se/en/publikationer/opportunities-media-and-information-literacy-middle-east-and-north-Africa 22 https://elab.lms.athabascau.ca/login/index.php 23 http://milmooc.aub.edu.lb/ 44 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches enseignants et des jeunes appellent leur attention sur les distorsions de toutes sortes, selon différents points de vue. Elles leur font prendre conscience des stratégies de recrutement des groupes extrémistes et leur apprennent à s'en protéger. D'autres initiatives mettent à profit la culture participative des réseaux sociaux pour familiariser les jeunes avec l'Internet et ses enjeux. Le laboratoire des médias de l'Université de Rhode Island a mis sur pied en 2016 un projet appelé "Mind over Media" (L'esprit plus fort que les médias] qui vise à apprendre aux jeunes à reconnaître la propagande et à la rejeter.24 Sous la houlette de Renee Hobbs, ce projet encourage enseignants et étudiants à apporter leurs contributions et commentaires. Certains éléments montrent en outre que les MOOC sont de plus en plus utilisés pour développer la formation à l'EMI. Même s'il n'existe pas encore de MOOC entièrement consacré à la radicalisation violente en ligne, certains de ces cours comprennent des séances et des modules qui traitent de la question. Tel est le cas du projet ECO financé par l'Union européenne, qui vise à inscrire l'organisation de formations de qualité et peu coûteuse dans le programme communautaire relatif au numérique.25 Le portail d'ECO propose un cours en ligne en français et en anglais baptisé "DIY MIL" comprenant une session sur les valeurs et les droits de l'homme dans laquelle la radicalisation est abordée (Frau-Meigs et Blondeau, 2014-2015). Le projet ECFOLI offre, dans le cadre du programme ERASMUS+ un cours en ligne d'EMI conçu pour former les enseignants et les jeunes à la résolution des conflits et au dialogue interculturel à travers une initiation aux médias, des jeux et des histoires (Frau-Meigs et Blondeau, cité dans Osuna et al., 2016).26 Hors d'Europe, l'UNESCO a, en partenariat avec la chaire sur les ressources éducatives libres de l'Université Athabasca (Canada) et en coopération avec le Réseau sur l'éducation aux médias et à l'information et le dialogue interculturel (MILID), lancé en 2015 un MOOC sur l'« Initiation des jeunes aux médias et à l'information ».27 La entre médias sociaux et radicalisation des jeunes étant un thème relativement nouveau de l'EMI, les recherches n'ont pas encore livré de résultats significatifs. Plusieurs appels à projet ont néanmoins été lancées récemment et les résultats d'une analyse sur le terrain devraient être disponibles l'an prochain. On peut distinguer trois axes de recherche sur les enjeux à long terme de l'EMI. Le premier a pour objet les risques liés aux effets potentiellement nocifs des médias en ligne, examinés dans le cadre de programmes de grande ampleur tels que le programme européen « Pour un Internet plus sûr ». 46 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches PRINCIPALES CONCLUSIONS 7 Les données dont on dispose actuellement sur les liens entre l'Internet, les médias sociaux et la radicalisation violente sont très limitées et ne permettent pas encore de tirer des conclusions définitives, en particulier dans le domaine des sciences de l'information et de la communication, contrairement à ce qui est le cas dans d'autres disciplines (histoire, sociologie, psychologie). La plupart des travaux de recherche, des documents relevant de la littérature grise et des rapports d'organismes spécialisés qui se sont penchés sur le rôle de l'Internet et des médias sociaux demeurent essentiellement descriptifs. Les études exploitant des données empiriques pèchent le plus souvent par des faiblesses méthodologiques, leur échelle réduite et le caractère restreint des séries de données sur lesquelles elles s'appuient. De ce fait, elles ne renseignent guère sur les motivations qui conduisent à s'intéresser aux sites extrémistes et à échanger dans les médias sociaux sur ces questions, ni sur les raisons de l'influence exercée par les contenus et sur les facteurs corrélés externes et internes, ou sur les trajectoires des jeunes qui en viennent à commettre des actes violents. Cela étant, certains éléments suggèrent que l'Internet et les médias sociaux peuvent jouer un rôle dans le processus de radicalisation violente, principalement par la diffusion d'informations et de propagande, et par le renforcement, l'identification et la mobilisation d'un public (auto)-sélectionné qui accueille avec intérêt les messages radicaux et violents (Brachman et Levine, 2011 ; RAND Europe, 2013 ; Sageman, 2008 ; Von Behr, Reding, Edwards, et Gribbon, 2013 ; Weimann, 2004). En ce sens, plutôt que l'origine ou la cause de comportements violents, l'Internet (en particulier les médias sociaux) peut être un instrument qui facilite la radicalisation. Au vu de la littérature, il semble donc avoir plus particulièrement pour effet d'influencer les décisions que de les susciter, et cette influence résulte de la création d'un environnement composé d'individus partageant les mêmes idées et se définissant par rapport à un « autre ». La radicalisation violente proprement dite fait intervenir plusieurs processus plus complexes, notamment des processus sociopsychologiques et de communication interindividuelle, à quoi s'ajoutent d'autres facteurs opérant dans le monde réel. 7.1 Plateformes de médias sociaux particulières Les études descriptives conduisent en outre à faire l'hypothèse que les salons de discussion peuvent agir comme des catalyseurs lorsque leurs membres en restreignent eux-même l'accès et sont prédisposés à embrasser une idéologie extrémiste. Toutefois, les chercheurs 47 n'ont pu recueillir des données empiriques qui inciteraient à valider, ou invalider, une telle hypothèse. Nous n'avons trouvé aucune donnée empirique qui prouverait que Facebook, Twitter et autres plateformes aient un lien de causalité avec la radicalisation violente des jeunes, ou le contraire. Facebook pourrait être un espace de première approche en vue d'une radicalisation en ligne, où des idées extrémistes sont diffusées, sans nécessairement que les récepteurs de tels contenus adhèrent aux appels à la violence ou passent à l'action violente. Aucune étude ne semble jusqu'ici avoir établi un lien entre les jeux vidéo et l'action radicalisée violente dans le monde réel, mais l'hypothèse d'une désensibilisaton face à la violence virtuelle apparaît plausible. Au vu des travaux déjà publiés, il n'existe pas à ce jour de données empiriques qui suggèrent que les mesures d'autoréglementation prises par les médias sociaux contribuent à réduire la radicalisation violente des jeunes - mais pas davantage qui excluent cette possibilité. Les données relatives aux types et modalités d'utilisation de l'Internet et des médias sociaux se limitent le plus souvent à des études de cas rétrospectives et anecdotiques ou à des analyses sur dossier concernant des individus radicalisés par des discours à caractère religieux. Bien que riches d'informations, ces études sont généralement de faible qualité sur le plan méthodologique et n'éclairent en rien sur formes d'utilisation de l'Internet et des médias sociaux qui pourraient avoir induit une véritable radicalisation violente, ni sur les mécanismes par lesquels celle-ci se traduirait (ou non) par un comportement violent. 7.2 Genre et radicalisation Les travaux existants sur les relations entre genre, médias sociaux et radicalisation ont un caractère fortement exploratoire et descriptif, et aucun des rapports ou études examinés n'offre un tableau complet de la question du genre dans les médias sociaux. Le rôle des femmes dans la radicalisation en ligne demeure peu étudié et sous-estimé. Les recherches se sont concentrées dans une mesure disproportionnée sur l'État islamique, et rares sont les travaux pluridisciplinaires ou interculturels qui sont consacrés aux activités sur l'Internet et dans les médias sociaux des extrémistes de droite ou de gauche ou des mouvements féministes radicaux. De ce fait, le rôle des femmes dans la radicalisation violente en ligne n'est que partiellement compris. Le paradigme de la victimisation des femmes engagées dans une action radicale violente n'apporte clairement qu'une vision limitée de leur rôle dans la radicalisation en ligne (et hors ligne). Les mouvements extrémistes et prônant la haine s'appuient de plus en plus sur la participation des femmes, et le stéréotype selon lequel le terrorisme est fortement dominé par les hommes est de moins en moins vrai. On note l'absence de recherches sur la construction de la masculinité face aux images de la féminité, en ce qui concerne les rapports entre genre, médias sociaux et radicalisation. Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches Les recherches ne disent rien non plus des discours articulés entre eux ou distincts à travers lesquels les stratégies de prévention et de répression de l'extrémisme violent et de déradicalisation s'adressent à chaque sexe. Il importe qu'un plus grand nombre de femmes, y compris de jeunes femmes (de la génération numérique) participent aux recherches partout dans le monde. Leur expérience personnelle aiderait sans doute à mieux comprendre les aspects de la radicalisation (violente) qui sont propres aux femmes et propres aux jeunes, et le rôle des médias sociaux dans ces processus. 7.3 L'extrémisme de droite et de gauche On ne dispose pas à ce jour de données empiriques sur les liens réels entre l'utilisation de l'Internet et des médias sociaux par des groupes d'extrême-droite et la radicalisation violente des jeunes. Une étude présente des éléments attestant de la vulnérabilité de certains jeunes face aux discours extrémistes, sous l'effet de mécanismes de confirmation des préjugés et de rationalisation, et du fait que ces jeunes manquent de repères pour juger de la fiabilité des sources d'information et de leur utilisation (Biddle, 2015). D'autres travaux donnent à penser que l'une des raisons qui poussent à prêter l'oreille à tels ou tels discours (radicaux) est qu'ils donnent du sens à un certain vécu (Blackwood, Hopkins et Reicher, 2015). Les études de ce type pourraient être reproduites à plus grande échelle. 7.4 Éducation aux médias et à l'information Bien que les programmes d'EMI soient prometteurs, leur succès et/ou leur efficacité générale en matière de prévention de la radicalisation violente n'ont pas été mesurés. Alors que ces programmes gagnent partout du terrain, la littérature ne renseigne que sur l'expérience acquise dans les pays du Nord, et nous n'avons trouvé aucune publication traitant spécifiquement de la radicalisation violente. Nous avons cherché en vain une étude de l'efficacité de ces programmes préventifs face aux problèmes de réceptivité à la radicalisation violente en ligne. 7.5 Le monde arabe et l'Afrique Les recherches scientifiques sur la radicalisation et les médias sociaux sont actuellement très limitées dans le monde arabe. Les études révèlent une forte présence des groupes terroristes dans les médias sociaux, mais ont un caractère descriptif plutôt qu'analytique. Ces travaux expliquent les risques que représente la diffusion d'idées extrémistes et mettent en garde contre la « confusion » que ce type d'information peut produire chez les internautes. 49 Nous n'avons pas trouvé de publications ou de rapports internes qui traitent de l'impact des médias sociaux sur la radicalisation violente des jeunes Arabes, ni sur l'efficacité des initiatives et politiques de prévention dans le monde arabe. Les mêmes lacunes s'observent en ce qui concerne l'impact de la censure sur l'Internet et du contrôle des organismes de médias, qui sont une pratique courante dans la région. Certains y voient un obstacle à l'émergence de contenus indépendants et crédibles proposant d'autres voies que celle de l'extrémisme (Radsch, 2016). La recherche relative à l'Afrique, encore embryonnaire, montre qu'il est important de considérer les plateformes mobiles comme des vecteurs d'une radicalisation libérée poussant à l'extrémisme violent. 7.6 L'Asie En l'absence d'études empiriques, il semble difficile de dégager des tendances et des conclusions spécifiques sur les médias sociaux et la radicalisation en Asie. Il n'existe pas encore de centres régionaux d'expertise, ni par conséquent de réseaux et de pôles de recherche à même de consacrer leurs efforts à la radicalisation violente et aux défis particuliers que celle-ci représente dans le cyberespace. 50 Les jeunes et l'extrémisme violent dans les médias sociaux – Inventaire des recherches CONCLUSIONS 8 Le rôle important que les jeunes sont appelés à jouer en tant que citoyens et éventuels ambassadeurs de la paix impose de procéder à un examen approfondi des recherches qui sont menées sur les raisons et les explications de la radicalisation en ligne violente de certains jeunes. Cet exercice doit tenir compte aussi de l'obligation des États de protéger et promouvoir la sécurité et les libertés des jeunes, en particulier la liberté d'expression, et leurs droits à la participation et au respect de la vie privée en même qu'ils cherchent à limiter les discours de haine en ligne. Les études sur la radicalisation en ligne des jeunes n'ont pas encore atteint la masse critique nécessaire pour que les conclusions et recommandations issues de ces recherches soient crédibles. On ne dispose encore à l'heure actuelle que d'un volume modeste de données quantitatives et qualitatives sur la question, qui contraste avec l'abondance des publications consacrées à l'autonomisation des jeunes en matière d'usage sûr de l'Internet. Malgré le développement de la littérature grise (rapports, profils, enquêtes journalistiques poussées) sur la radicalisation violente et le terrorisme ces dernières années (à compter de 2012), ce domaine d'étude souffre encore de la relative insuffisance des recherches et des efforts théoriques. En outre, plusieurs études pèchent par d'importantes limites sur le plan méthodologique : études de cas anecdotiques (ne portant que sur un exemple unique), échantillons ou ensembles de données restreints et non représentatifs (corpus de faible ampleur, analyses ne fournissant que des instantanés). À cela s'ajoute l'asymétrie le nombre d'études menées dans des pays occidentaux et les recherches portant sur le reste du monde, en particulier les pays du Moyen-Orient et de l'Afrique du Nord, ce qui peut créer un biais intrinsèque affaiblissant la construction et la validité des modèles théoriques et l'interprétation des résultats. À l'heure actuelle, certains travaux mettent en évidence une corrélation entre l'exposition à la propagande et aux tentatives de recrutement de groupes extrémistes, en particulier d'extrême-droite, ainsi qu'aux attitudes affichées par eux, et un risque accru de radicalisation violente de jeunes (Briddle, 2015). Toutefois, les mécanismes et processus exacts par lesquels l'Internet et les médias sociaux contribuent à cette radicalisation demandent à être étudiés plus avant. Les données ne sont pas suffisantes pour conclure à l'existence d'une relation de cause à effet entre la propagande ou le recrutement extrémistes sur l'Internet et dans les médias sociaux et la radicalisation violente des jeunes. Une synthèse des données d'observation montre que, dans le meilleur des cas, les médias sociaux sont un environnement facilitateur plutôt qu'un moteur pour la radicalisation violente ou le passage à l'action violente. Il n'est donc pas clairement établi que les médias sociaux exercent une influence indépendamment d'autres facteurs intervenant hors ligne, même si la frontière entre monde virtuel et monde réel est de plus en plus poreuse. En ce sens, l'Internet et les médias sociaux peuvent avoir un effet de renforcement, dans la mesure 51 où les jeunes extrémistes ont la possibilité de rechercher activement et trouver dans les médias sociaux des contenus qui répondent à leurs préoccupations et devenir ainsi la proie de recruteurs tentant de les enrôler dans des actions violentes. Certaines stratégies de prévention, conçues à l'intention des services de sécurité, sont utilisées aussi pour former les enseignants (Kovacich et Jones, 2002). Diverses catégories de professionnels ont reçu une formation aux tactiques de combat des groupes terroristes. Dans certains pays comme la France et le Royaume-Uni, on apprend aux enseignants et autres éducateurs à reconnaître les premiers signes d'une (auto)radicalisation en ligne de leurs élèves, de façon qu'ils puissent les signaler et tenter de mettre en oeuvre des méthodes de prévention. Nous n'avons pas trouvé d'études qui examinent de manière approfondie l'efficacité de ces méthodes. En revanche, il existe quantité d'enquêtes journalistiques, de rapports anecdotiques et autres éléments de la littérature grise qui appellent l'attention sur le grand nombre de ré faussement positifs, sur les dangers qu'il y a à confier la détection et le profilage au personnel scolaire, et sur les effets néfastes que cela a sur les jeunes, les familles et les communautés. La littérature révèle cependant une tendance croissante à prendre des contre-mesures en ligne qui soient adaptées au contexte et s'opposent aux représentations et revendications extrémistes et aux discours de haine. Ces stratégies préventives revêtent deux formes principales : contre-discours en ligne et initiatives communautaires de lutte contre la propagande, hors ligne et en ligne. Elles sont souvent de portée limitée et souffrent d'un manque de moyens financiers qui les empêchent d'être durablement présentes sur l'Internet et de toucher les jeunes en voie de radicalisation. Il est donc également difficile d'évaluer l'efficacité de tels programmes. En outre, plusieurs auteurs (par exemple Ferguson, 2016) contestent aujourd'hui l'efficacité des contre-discours et pointent les risques d'effets contraires. L'hypothèse selon laquelle ces mesures peuvent affaiblir les discours faisant l'apologie de l'extrémisme violent, ou représentent une réelle menace pour ce dernier, « reste à démontrer » (Ferguson, 2016). Dans l'ensemble, peu d'initiatives d'éducation aux médias et à l'information ont vu leur efficacité testée. Les recherches en la matière se contentent bien souvent de mentionner en passant des ressources diffusées en ligne en vue de leur utilisation par des enseignants dans les salles de classe. Les diverses initiatives qui ont été mises en oeuvre dans plusieurs pays sont généralement décrites comme aiguisant le sens critique des jeunes internautes, mais nous n'avons pu trouver de données qui prouvent qu'elles réduisent effectivement les risques de radicalisation violente en ligne. Il est également possible de tirer un certain nombre de conclusions concernant les limites des recherches examinées. Une réserve majeure dans la littérature tient au fait que de nombreux cadres de recherche ont donné naissance à des mythes, des « buzzwords » et des « mèmes » Internet qui risquent de nuire à l'image des jeunes et à celle de l'Internet en général, comme les métaphores du réseau, de la chambre d'écho, du loup solitaire ou de « l'oiseau vert ». Paradoxalement, ces étiquettes nourrissent les stratégies de communication de nombreux groupes extrémistes, 'attention au détriment d'autres réalités (comme le sort des femmes). C'est ainsi que l'image du « loup solitaire » autoradicalisé alimente le fantasme d'actes de violence arbitraires et incontrôlables commis par un ennemi interne pouvant frapper le grand public n'importe où et n'importe quand. Cette image est souvent associée à une radicalisation directe via les réseaux sociaux et à l'impossibilité pour la police de garantir efficacement la sécurité. Pourtant, il n'existe pas de preuve empirique de l'existence d'individus agissant isolément ou à la suite d'une simple exposition en ligne à des contenus les poussant à se radicaliser. De fait, ces hypothèses ont donné lieu à une réfutation convaincante (The Guardian, 2017).
2,107
2012NICE4001_3
French-Science-Pile
Open Science
Various open science
2,012
Extraction de modèles pour la conception de systèmes sur puce
None
French
Spoken
7,404
11,942
3.2.1.1 Méta-modèle DaRT (2004) L’idée d’un méta-modèle pour SystemC apparaı̂t dès 2004 lors du “Forum on specification and Design Langages”? dans des communications?,?. L’objectif des auteurs était de produire un cadre de co-conception, supportant des modèles décrits à différents niveaux de détails. Le contexte d’utilisation de ce méta-modèle est le traitement du signal intensif (Intensive Signal Processing ou ISP) et le flot considéré est purement descendant, partant de spécifications de haut niveau en uml avec le profil ISP-UML (où est défini aussi l’ISP-UML metamodel ), traduites ensuite en SystemC par l’intermédiaire de règles de transformations entre leurs deux méta-modèles. Les auteurs se concentrent sur l’aspect structurel d’un design en délégant le comportement des composants à des éléments appelés CodeMapping. Malheureusement, certaines informations nécessaires à la réalisation d’un flot remontant restent manquantes. Le méta-modèle SystemC est ici utilisé comme méta-modèle cible pour leur transformation et de ce fait, le sous-ensemble des modèles SystemC générés n’est pas représentatif de la pléiade de styles de codage autorisés par SystemC. Compte tenu de la date de parution de ces travaux, aucun mécanisme de prise en compte n’a été prévu pour supporter les constructions de type tlm. Les auteurs caractérisent d’ailleurs leur méta-modèle ainsi : The metamodel presented here is not a definition of the SystemC library. It is rather a metamodel oriented towards SystemC code generation for the particular case of Intensive Signal Processing mapped on a SoC. 40 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact 3.2.1.2 Méta-modèle Fudan (2004-06) A la même période, des chercheurs de l’Université Fudan (Shanghai, Chine) proposaient une alternative? plus proche des objets disponibles dans le librairie SystemC. Le méta-modèle intègre cette fois les éléments nécessaires à la modélisation du comportement par l’intermédiaire des sc process. Cette approche considère aussi un flot descendant avec les mêmes manques que le méta-modèle précédemment présenté. Cependant, ce méta-modèle est le premier à essayer de se rapprocher des informations que peut contenir un code SystemC au sens c++ du terme. On y retrouve les types internes à SystemC tels que les sc port, sc prim channel, sc module, sc process, sc interface, etc... Toutefois, il ne considère que les sc port, éliminant la possibilité d’avoir des sc export dans un design. Figure 3.2 – Méta-modèle Fudan 2004 De cette modélisation nous retenons quelques idées. Le niveau le plus haut de la hiérarchie (TopScModule) est une spécialisation du ScModule et peut contenir des ScModules, permettant ainsi une modélisation récursive. Le TopScModule possède les mêmes caractéristiques qu’un composant et peut être plus facilement réutilisé en tant que composant dans un nouveau design. L’élément racine d’un modèle ne peut être qu’un composant. Ce méta-modèle a été abandonné pour une version plus élaborée? qui essaie de séloigner de la syntaxe concrète pour privilégier les 3.2 Les outils et modèles existants 41 concepts. La figure 3.3 en donne un aperçu. On constate l’apparition du concept Port pouvant alors regrouper sc port et sc export ainsi que la possibilité de connecter directement un Port à un autre Port. De plus, l’élément Channel n’hérite pas du composant Module et est spécialisé en deux types de canaux : Primitive Channel et Hierarchical Channel (anciennement ScPrimChannel et ScChannel). Il semblerait d’ailleurs que le lien d’héritage entre un Hierarchical Channel et un Module soit manquant. Figure 3.3 – Méta-modèle Fudan 2006 3.2.1.3 Métat-modèle UniMi (2008-09) L’Université de Milan est très active dans l’étude de l’utilisation de SystemC. Des chercheurs du département technologie de l’information dirigés par Elvinia Riccobene proposent le métamodèle de la figure 3.4?. C’est une amélioration d’une version antérieure?, très proche du méta-modèle de Fudan. Comme celui de Fudan, les sc port et sc export sont abstraits dans le même concept de Port et un lien est prévu pour permettre la connexion directe entre un Port et un autre Port. Ce type de lien se rencontre notamment dans les design de type tlm. De plus, l’élément le plus haut dans la hiérarchie (toplevel ou sc main) n’apparaı̂t pas. Les éléments les plus hauts sont de type Module ou Channel. 42 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact binds to 0..* child parent Variable 0..* 0..* Module 0..* 1 Port 0..* 1 Interface binds to 0..* 0..* requiredInterface 1..* implementedInterface sensitive to Process notifies Event Channel 0..* Method Thread ClockedThread PrimitiveChannel HierarchicalChannel Figure 3.4 – Méta-modèle UniMi L’amélioration apportée dans ce méta-modèle concerne les relations entre Process, Event et Primitive Channel. Dans la version antérieure, une erreur avait été faite. Ce sont bien les process qui génèrent des événements et non les canaux. Ces derniers se contentent de les transporter. 3.2.1.4 Méta-modèle Delft (2010-11) Des travaux conduits à l’Université de Delft ont produit un méta-modèle de SystemC proche de celui de Fudan. Le but est similaire au nôtre concernant la possibilité de contenir les informations structurelles d’un design. On trouve les détails de celui-ci tout d’abord dans un rapport de Master? qui donna lieu par la suite à un article?. Notons que ce travail a été effectué chronologiquement en parallèle avec nos études. Le méta-modèle utilisé est décrit dans la figure 3.5. Il reprend, trait pour trait, la structure interne des données en SystemC. On peut le remarquer d’ailleurs par le lien de généralisation utilisé entre les interfaces et leurs implémentations qui est plus conforme à la vision c++, là où une réalisation aurait été plus appropriée en uml. Les arguments développés sont les mêmes que les nôtres et ce méta-modèle est utilisé dans un logiciel nommé “SHaBE” (pour “SystemC Hierarchy and Behavior Extractor ”). Il en découle un analyseur plus performant que les autres mais limité à la simple extraction et de bas niveau (RTL). L’auteur le mentionne? d’ailleurs dans les travaux à venir : Future works : A possible application which uses SHaBE as a front-end, would be a tool which converts a SystemC model comprising a parameterized dynamic 3.2 Les outils et modèles existants 43 0..1 hierarchy 0..* sc module topLevelModules 0..1 0..* sc interface module 0..1 0..1 hierarchical channel topLevel prim. Channels 0..* 0..* sc primitive channel intf: Class n: int Pol: sc port policy 0..* sc port 0..* intf: Class sc export sc process 0..* 0. . * Figure 3.5 – Delft MM hierarchy into a SystemC model with a fully expanded hierarchy. The resulting SystemC model can then be further processed using existing tools. Also, it would be interesting to investigate if the approach used in SHaBE can also be applied to SystemC models which use the SystemC TLM and/or the SystemC Analog/Mixedsignal (AMS) extensions. 3.2.1.5 Bilan sur les méta-modèles SystemC Les méta-modèles décrits précédemment sont pour la plupart dédiés à des applications bien précises. Néanmoins, les concepts mis en avant dans chacun d’eux se recoupent. Nous pouvons noter deux grandes classes de méta-modèles. Certains tendent à se rapprocher de l’implémentation interne de SystemC tels que la première version proposée par les chercheurs de Fudan ou par le travail de l’Université de Delft. D’autres tentent de s’en abstraire en regroupant les concepts qui se recoupent (i.e.,sc port, sc export). C’est en prenant soin d’étudier tout ces méta-modèles que nous présenterons par la suite, le méta-modèle le plus simple que nous ayons trouvé adapté à notre besoin (i.e.,nous permettant de représenter les informations structurelles d’un design SystemC et de définir une transformation vers le méta-modèle d’ip-xact). 3.2.2 Les outils d’analyse de programmes SystemC Nous avons recensé deux catégories différentes d’outils permettant l’analyse de programmes SystemC. Ceux de type statique qui adoptent une approche classique d’analyse syntaxique, se heurtant d’une part à toute l’expressivité permise par le c++ et d’autre part à l’absence 44 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact des paramètres qui pourraient être passés au programme SystemC durant son exécution . Et ceux de type dynamique qui essayent de récupérer les informations durant l’exécution d’un programme SystemC, se heurtant eux à une perte d’information durant la phase de compilation du programme. Un recensement des différents outils existants est disponible dans le papier récent de Matthieu Moy?. Il décompose ces outils en différentes catégories, Ceux qui utilisent une grammaire dédiée , ceux qui utilisent un frontend c++ existant, et ceux utilisant une approches dites “hybride” (statique/dynamique). Dans la thèse de Harry Broeders,? on trouve un recensement similaire. Cette fois-ci, les catégories distinguées sont statique, dynamique ou hybride. Nous distinguerons par la suite seulement deux types d’approches, statique et dynamique. Nous considèrerons qu’une approche “hybride” appartient à la catégorie statique (resp. dynamique) si elle est enrichie par des informations dynamiques obtenues par exécution symbolique (resp. enrichie par des informations statiques). Nous exposerons dans la suite de cette section les différentes approches recensées et discuterons de leurs atouts et faiblesses. 3.2.2.1 Approche statique Les outils de cette section utilisent une approche statique pour l’analyse de code SystemC. Ils se basent sur un analyseur de c++ enrichi par la reconnaissance des mots clef spécifiques aux classes SystemC. Cette analyse statique ne suffit plus dès que l’architecture du système dépend de certaines informations passées au moment de l’exécution du programme. Les partisans de cette approche affirment que les modèles pour lesquels la hiérarchie de modules ne peut pas être récupérée ne sont pas très utilisés dans la pratique. Nous pensons que ce n’est justement pas le cas et que se limiter à ce style de codage restreint énormément le nombre de modèles disponibles. KaSCPar Karlsruhe SystemC Parser (KaSCPar)? a été développé au ForschungsZentrum Informatik (FZI). Cet analyseur se compose de deux éléments. SC2AST est un analyseur de SystemC, qui récupère les informations du code SystemC et génère l’arbre de syntaxe abstraite dans un fichier xml. SC2XML utilise cet arbre pour interpréter la phase d’élaboration du code SystemC. Les informations hiérarchiques récupérées de cette façon sont sauvegardées dans un fichier xml. Cet outil, SC2AST, est distribué gratuitement, mais sous forme d’un programme Java compilé. Dans la documentation SC2XML, les auteurs reconnaissent plusieurs limitations. Toutes les formes de code SystemC ne sont pas reconnues par l’outil et certains opérateurs c++, tels que l’opérateur conditionnel (? :) ne sont pas reconnus non plus. Il est, tout de même, utilisé dans divers projets et outils?,?. ParSyC Parser pour SystemC (ParSyC)? est un front-end SystemC développé à l’Université de Brême. Il est construit à partir du Purdue Compiler Construction Tool Set (PCCTS)?. Par- 3.2 Les outils et modèles existants 45 SyC prend en entrée un modèle SystemC et produit un arbre de syntaxe abstraite contenant les informations comportementales du modèle. ParSyC fait partie intégrante de SyCE?, un environnement de développement pour la conception de systèmes développé lui aussi à l’Université de Brême. On retrouve ParSyC dans plusieurs parties de SyCE. Notamment dans l’outil de vérification formelle CheckSyC?. L’environnement SyCE contient également l’outil ViSyC? qui permet de créer une vue structurelle d’un design écrit en SystemC, mais celui-ci n’utilise pas ParSyC directement. Il récupère les informations du design après la fin de la phase d’élaboration. Ce n’est qu’après cela que l’outil? utilise ParSyC afin de pouvoir visualiser la structure et le comportement d’un design écrit en SystemC. Malheureusement, le code source de ParSyC n’est pas accessible au public étant donné qu’il fait partie intégrante d’une suite commerciale d’outils. SCOOT SCOOT? est un outil d’analyse statique de systèmes décrits en SystemC. Il extrait des informations qui peuvent être transmises à des outils de vérification. Il a été développé par l’ETH Zurich et l’Université d’Oxford. SCOOT utilise un front-end pour traduire le code SystemC en graphe de contrôle de flot. Par la suite, des techniques d’analyse statique de pointeurs? sont utilisées pour déterminer la hiérarchie du module, la liste de sensibilité des processus, et les liaisons de ports. Après extraction de cette information, SCOOT re-synthétise un programme c++ qui ne dépend pas de la bibliothèque SystemC et de son simulateur. Il s’affranchit donc du simulateur de SystemC en le remplaçant par un simulateur particulier. Selon les auteurs, le simulateur exécute alors le modèle plus vite que le simulateur original. Là encore, le code source de SCOOT n’est pas accessible au public. SystemCXML SystemCXML? a été initialement développé dans le cadre du projet INRIA Espresso. Il fait également partie du framework CARH? développé au centre FERMAT (Virginia Tech). CARH est utilisé pour la validation des modèles SystemC au niveau système. SystemCXML est une sur-couche qui utilise Doxygen, un outil qui génère une documentation formatée en xml. La partie statique de l’information hiérarchique peut être facilement récupérée à partir d’un modèle SystemC. Le fichier xml produit par Doxygen est transformé en un fichier xml qui décrit la structure de chaque module. toutefois, SystemCXML n’est pas capable de déterminer quels modules sont instanciés et comment ils sont connectés. SystemCXML crée une structure de données interne qui peut être accessible via une API pour un traitement ultérieur. L’utilisation de Doxygen élimine la nécessité d’utiliser un analyseur complexe de SystemC (c ). SystemCXML n’est pas capable de récupérer les informations comportementales à partir d’un modèle SystemC comme le reconnaissent ses auteurs. 46 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact 3.2.2.2 Approche dynamique Le principal atout de l’approche dynamique est le fait que l’on peut s’affranchir de la complexité de développement d’un analyseur de SystemC/c++. Techniquement, cette approche utilise, de manière cachée, un analyseur généraliste du langage c++. Le compilateur c++ qui est utilisé pour compiler le modèle SystemC contient évidemment ce genre de mécanismes pour pouvoir compiler le code c++. Dans cette approche, le modèle est réellement exécuté. Les mécanismes internes à SystemC permettent de récupérer la hiérarchie des modules instanciés au prix d’une perte d’informations durant la phase de compilation. Le plus grand défi pour les analyseurs de la catégorie dynamique est la récupération du comportement d’un modèle SystemC. L’arrivée de modèles SystemC optimisés pour le temps de simulation rend les choses encore plus délicates. Une API SystemC peut être utilisée pour trouver les processus qui sont utilisés pour implémenter le comportement du module. Il est alors possible d’accéder à certaines propriétés de ces processus, comme par exemple le type des processus : SC METHOD, SC THREAD ou SC CTHREAD. Ces processus contiennent également des références vers le code machine (issu de la compilation) qui implémente le comportement du module, mais ne contiennent aucune référence au code c++ qui a été utilisé pour spécifier ce comportement. Il est alors nécessaire de retrouver ces informations par des méthodes inspirées de l’approche statique si l’on veut extraire un modèle SystemC qui soit humainement lisible. Quiny Quiny? est un front-end SystemC développé dans le cadre du projet européen Interface and Communication based Design of Embedded Systems (ICODES). Quiny exécute un code SystemC afin de récupérer la hiérarchie du design et les informations comportementales du modèle. Techniquement, le code SystemC est compilé et lié avec une librairie interne, qui remplace la librairie SystemC. Lorsque le code est exécuté, Quiny construit à la volée des AST (Arbre Syntaxique Abstraite) pour chaque expression qu’il rencontre. Pour cela, Quiny s’appuie sur le fait que les types SystemC peuvent être facilement “détournés” en utilisant des surcharges d’opérateurs. Pour les types primitifs, cette technique devient inapplicable. Les types composés de plusieurs mots clé tels que unsigned int ne peuvent être gérés par cette méthode. Ceci oblige alors le programmeur à utiliser des types spéciaux pour aider l’outil (Q UINT dans ce cas). Le même problème se pose pour les pointeurs et tableaux, obligeant le programmeur à utiliser les types Array et Pointer. PINAPA Is Not A PArser (PINAPA)? est un front-end SystemC open-source faisant partie intégrante de l’outil LusSy?. LusSy a pour but de permettre l’analyse des Systèmes sur puce (SoC) décrits au niveau transactionnel (TLM). PINAPA stocke les informations sous la forme d’un AST qui contient la hiérarchie du design SystemC issue de la phase d’élaboration. PINAPA se présente sous la forme d’un patch pour la librairie SystemC (versions 2.1.1 et 2.0.1) et un 3.3 L’approche choisie 47 patch pour la version 3.4.1 du compilateur GCC. La version modifiée de GCC produit l’AST du code SystemC et la version modifiée de la librairie SystemC est utilisée pour exécuter la phase d’élaboration jusqu’à la fin de la phase d’élaboration et récupérer les informations hiérarchiques. On peut noter les embryons d’un traducteur SystemC vers ip-xact. PinaVM PinaVM? est le successeur de PINAPA. PinaVM utilise LLVM-GCC? pour compiler le code source SystemC en bitcode LLVM (Low Level Vitual Machine). Il utilise alors ce bitcode pour exécuter la phase d’élaboration qui révèle la hiérarchie d’un design SystemC. Puis, durant la phase de simulation, PinaVM lie les informations comportementales à la hiérarchie du design. Pour cela, PinaVM implémente une reconnaissance des primitives read, write et wait. Lorsque PinaVM identifie un de ces appels de fonction, il essaie de relier les paramètres d’appel à la hiérarchie du design SystemC. Par exemple, lors d’un appel à la fonction d’écriture sur un port de sortie, le paramètre qui spécifie ce port doit être identifié. La valeur de ce paramètre peut être le résultat d’un calcul annexe. L’idée de PinaVM est d’identifier les bitcodes qui sont utilisés pour calculer ce paramètre et d’ensuite construire une nouvelle fonction LLVM qui contient ces bitcodes et produit la valeur du paramètre. Une fois cette construction faite, cette fonction est exécutée et la valeur du paramètre peut être reliée à l’objet approprié dans la hiérarchie du design. Selon les auteurs, cette approche est limitée aux modèles dans lesquels les ports qui sont utilisés dans la description comportementale peuvent être déterminés statiquement. 3.2.2.3 Bilan sur les outils d’analyse de programmes SystemC Chacun des outils présentés se heurte aux inconvénients de son approche (statique vs. dynamique). Une analyse syntaxique permet d’identifier de nombreuses relations. Mais sans exécution, récupérer les informations de structure d’un design qui n’a pas encore été instancié devient impossible sans l’adoption d’un style de codage/utilisation de nouveaux types bien définis. La complexité d’écrire un analyseur c++ vient s’ajouter à l’ajout de toutes les primitives dédiées à la reconnaissance de programme SystemC. D’un autre côté, attendre la fin de la phase d’élaboration, et ainsi récupérer un design bien instancié sans conserver un lien avec le code SystemC, limite l’interprétation de la vue structurelle que l’on en retire. Celle-ci est difficilement analysable par un concepteur de systèmes car elle a perdu tout concordance avec le code. 3.3 L’approche choisie L’étude des travaux existants nous a convaincu de la nécessité de combiner et d’articuler au mieux les capacités des deux approches, statiques et dynamiques. D’autre part, et ce pour coller au mieux aux standards, nous désirons produire la structure du design extrait du programme original SystemC/c++ au format ip-xact, lui-même dédié à l’assemblage ultérieur de 48 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact composants SystemC dans des systèmes plus larges. Et enfin nous souhaitons pouvoir opérer ces transformations et extractions aussi bien au niveau tlm qu’au niveau rtl plus bas. Tout ceci forme le cahier des charges de notre approche. 3.3.1 Description générale de l’approche Partant du constat que ni l’approche statique ni l’approche dynamique n’est suffisante pour récupérer assez d’informations toute seule afin de nourrir un modèle architectural utilisable clairement d’un point de vue utilisateur, nous avons dû nous poser la question suivante : comment extraire ces informations le plus génériquement possible et les exporter dans le formalisme ip-xact?. Les inconvénients présents dans une approche devront pouvoir être surmontés dans l’autre approche et vice-versa. Notre problème d’origine se décompose en trois questions indépendantes et plus facilement traitables : – Comment réconcilier les informations issues des deux approches? – Comment stocker ces informations? – Comment exporter ces informations en ip-xact? La figure 3.6 donne un aperçu des étapes du flot souhaité. L’objectif à réaliser est la traduction du bloc “Programme SystemC” vers le bloc “Modèle ip-xact”. Nous la divisons en deux étapes par l’introduction d’un bloc “Modèle structurel”, sorte de format pivot afin de séparer deux sortes de considérations : depuis le ”Programme SystemC ” nous parlerons d’extraction (d’un modèle depuis un programme), la deuxième phase étant elle qualifiée de transformation de modèles (en fait la traduction entre notre modèle interne et la syntaxe ip-xact). On voit ici l’importance de définir un méta-modèle adéquat, afin que les modèles structurels exprimables dans le langage de ce méta-modèle aient justement à la fois la capacité de représenter les informations nécessaires à la transformation de modèles ultérieure tout en autorisant la production de ces informations de manière simple et efficace par la phase antérieure d’extraction. Ce méta-modèle est le résultat d’un affinement progressif basé d’une part sur les expériences précédentes (cf. notre étude bibliographique de la section 3.2.1), d’autre part sur des expérimentations conduites avec des versions préliminaires sur des bibliothèques disponibles (cf. section 3.5). La phase d’extraction est raffinée pour intégrer les approches statiques et dynamiques d’analyse de la structure du design sous le code SystemC. La phase de transformations s’appuie sur les techniques de transformations de modèles décrites au niveau des méta-modèles. Il faut ici insister sur le fait que si ces trois aspects : – Définition d’un méta-modèle structurel pivot – Définition d’une méthode d’extraction de code SystemC vers ce modèle – Définition d’une transformation de ce modèle vers ip-xact 3.3 L’approche choisie 49 sont décrits de manière séquentielle et largement autonome, dans la pratique le choix de ces définitions a été largement interdépendantes pour permettre la meilleure articulation de ces étapes. Dans la suite nous décrirons dans l’ordre : – Le méta-modèle structurel pivot en 3.3.2 – La transformation de ce modèle vers ip-xact en 3.3.3 – L’extraction depuis le code SystemC en 3.3.4 Méta-modèle Structurel Méta-Modèle IP-XACT « conforme à » « conforme à » Usage classique de SystemC Programme SystemC Extraction du modèle structurel Programmes C++ Analyse statique exécutable Analyse dynamique Transformation de modèles Modèle Structurel Analyse de code Simulations Figure 3.6 – Flot général Modèle IP-XACT Ingénierie des modèles 50 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact 3.3.2 Un méta-modèle structurel de design Afin de pouvoir décrire un modèle structurel, plusieurs concepts sont essentiels. La description d’un modèle d’architecture commence en premier lieu par la séparation claire entre les concepts de types et d’instances comme pour une approche orientée objet générique. Nous considérons un design comme un assemblage d’objets qui sont eux-mêmes des instances de types/classes. Chaque objet doit pouvoir être identifié de manière sûre et unique. C’est pourquoi le entre un objet et son type doit être préservé. La notion de composants nous permettra d’abstraire certain blocs complexes en de simples blocs en encapsulant les structures internes de ceux-ci. Afin de permettre le dialogue de ces blocs à leur niveau d’instanciation, la notion de point de connexion présent à la surface des composants est nécessaire elle aussi conjointement avec la notion de lien de connexion pour pouvoir construire réellement une architecture tout en conservant l’encapsulation permise par le concept de composant. Architecture 1..* components 0..* connectors outgoing Component ports 0..* 1..* Port incoming Connector 1..* 0..* interfaces Interface Figure 3.7 – Méta-modèle structurel Les noms diffèrent des mots clefs utilisés dans la bibliothèque SystemC mais représentent les mêmes concepts. L’Architecture représente le niveau le plus haut de hiérarchie comme on peut le décrire dans le sc main d’un programme SystemC. Elle contient des instances de Component et des 3.3 L’approche choisie 51 instances de Connector. Un Component représente un type générique de composants. Différentes spécialisations nous permettent alors de manipuler les différents types de composants dérivés de la classe sc module définis dans du code SystemC. Un Component peut contenir des instances de points de connexions que nous nommons Port (semblables aux sc port et sc export présents en SystemC). Ceux-ci possèdent des références à leurs canaux de communication ou Connector et inversement. Il n’est ici question que d’extraire la structure d’un design, c’est pourquoi cette simple représentation suffit. Il apparaı̂t que la notion de flot orienté ait un rôle important, et cela à différents niveaux de représentation. Au niveau rtl, proche de la représentation électronique, il est nécessaire de pouvoir distinguer un point de connexion produisant de l’information (output) d’un point de connexion ne faisant que subir l’arrivée d’informations (input). Effectivement, pouvoir identifier les outputs permet alors de vérifier que ceux-ci ne tentent pas de propager des informations en même temps sur le même canal (i.e.,dans ce cas-ci un simple fil). Cela est critique d’un point de vue électronique si les informations ne sont pas les mêmes (la majeure partie du temps) pouvant mener à un endommagement du système physique (composants électroniques). Au niveau tlm, les points de connexion de type rtl restent présents et utilisés pour des communications dites critiques telles que les interruptions, mais il apparaı̂t un autre type de point de connexion. Ces nouveaux points de connexion ne sont plus une simple liaison unidirectionnelle comme au niveau rtl. Des interfaces de communications complexes peuvent être utilisées pour accéder à un canal de communication encapsulant plusieurs liaisons ainsi qu’un protocole de communication. Là encore, les flots sont orientés mais d’une manière différente. Les directions représentent une relation de dominance entre un maı̂tre et un esclave. Plusieurs allers et retours d’informations peuvent être engendrés par une requête initiée par un maı̂tre à son esclave. Cette fois-ci le sens du flot est utile afin de prévenir d’un éventuel accès concurrent de deux maı̂tres à une même cible à un niveau d’abstraction plus élevé mais qui découle du même problème qu’au niveau rtl. Proposer deux différents méta-modèles dédiés à chaque niveau de représentation aurait été possible, cependant on constate que des connexions de type rtl subsistent dans des modélisations au niveau tlm. C’est pourquoi ces différents types de connexions sont regroupées sous le nom de Port dans notre méta-modèle. Ainsi, dans un modèle structurel conforme à notre méta-modèle, une connexion entre maı̂tre et esclave au niveau tlm sera interprétée comme une simple connexion entre un port d’entrée et un port de sortie du niveau rtl. Une connexion tlm sera vue comme un simple fil bien qu’elle en embarque plusieurs. 3.3.3 Les règles de transformation vers IP-Xact Nos règles de transformations convertiront un modèle conforme au méta-modèle présenté ci-avant en un modèle conforme au méta-modèle d’ip-xact tel que décrit dans la figure 2.8 de la section 2.4. Pour cela, les règles de transformations pour le modèle ip-xact commencent par la 52 Chapitre 3 : Extraction de m odèle structurel SystemC et exportation en IP-Xact dé finition des types de composants qui seront utilisés dans le design. Tout composant sc module découvert dans le design SystemC produit un composant librairie ip-xact. Le champ name du composant (représentant son type) est alors la concaténation de son type au sens SystemC/c++ agrémenté des informations relatives aux parties (dynamique dans le code SystemC) devenues statiques par instanciation qui caractérise une version et une seule d’un composant. Pour chaque composant, un champ model sera alors généré et contiendra une liste des vues du composant (dans notre cas une seule vue est créée) ainsi qu’une liste des ports disponibles pour un composant dans le champ ports. Le port contiendra son nom, sa direction, son type instancié dans le programme SystemC et une référence vers la vue du composant définie précédement. Les règles de transformations pour le modèle ip-xact du design (cf. méta-modèle de la figure 2.9) sont les suivantes. Tout composant sc module découvert dans le design SystemC produit une instance de composant (ComponentInstance) dans le modèle ip-xact liée au composant ip-xact précédemment défini. Le design contient la liste de tous ces composants ainsi que le réseau d’interconnexion. Le nom du composant SystemC est associé au nom de l’instance ip-xact. Le nom du type réel du composant SystemC instancié est utilisé pour l’instanciation du composant ip-xact. La liste des canaux sc channel est convertie en connexion ad-hoc ip-xact et ceux-ci référencent les ports qu’ils connectent. Un aperçu de code xml généré est donné dans l’annexe A. 3.3.4 La production de notre modèle structurel à partir d’un code SystemC La partie réellement technique, voire délicate, de la transformation globale consiste en l’extraction des informations structurelles et topologiques du design à partir de code SystemC, à répartir et organiser entre celles qui sont récupérées par analyse statique ou par exécution symbolique de la phase d’élaboration. Nous aborderons désormais cette phase importante, en décomposant bien les effets respectifs des analyses statiques et dynamiques, et leur réconciliation éventuelle pour intégration. Nous avons dû pour cela considérer la récupération des informations suivantes : – le type d’un objet – le nom d’un objet – la hiérarchie d’un design – la contenance d’un objet – l’héritage d’un type – les connexions entre entre objets Lors d’une première lecture, il est possible de passer directement à la partie réalisation (section 3.4), réservant les détails des solutions apportées pour une lecture plus approfondie. 3.3 L’approche choisie 3.3.4.1 53 Les informations relatives aux types Statique Une analyse statique du code SystemC permet initialement de récupérer des informations partielles de types de toutes les classes et structures définies. Dans un souci de réutilisation de code, celui-ci est souvent écrit de manière modulaire. L’utilisation des templates dans la définition de certaines classes (la plupart des classes de la librairie SystemC) rend l’information sur le type réellement instancié complexe à retrouver en théorie. Cependant, à partir du moment où une spécialisation apparaı̂t dans le code analysé, qu’elle soit utilisée ou non durant l’exécution du programme, il est possible de la récupérer sous forme de type statique (Type < Template >). Dynamique L’utilisation de la bibliothèque RTTI (Run Time Type Information) nous permet de récupérer le type instancié d’un objet sous la forme d’une chaı̂ne de caractères encodée par le compilateur (mangling fournissant un identificateur unique du type de l’objet instancié). Cette chaı̂ne de caractères n’étant pas humainement lisible, nous y associons l’utilisation de la fonction cxa demangle(). Cette fonction fait partie de l’API standard <cxxabi.h>. Nous récupérons ainsi une chaı̂ne de caractères de manipulation plus aisée qui contient le type réellement instancié durant l’exécution. Une analyse des différents modes de déclaration de variable dans un programme c++ nous a conduit à la conclusion que les informations relatives à un type instancié que nous pouvons récupérer sont d’une forme particulière, formé d’un Type concaténé le cas échéant avec un paramètre template identifiable par le fait qu’il est compris entre les symboles < et >. Conciliation Les informations issues des deux approches se recoupent en un point, le type statique. Connaissant le type instancié d’un objet (de la forme Type < Template > [(0 ∗0 )∗ | ([n])∗ ]), on peut alors dériver le type statique (Type < Template >). Ainsi, un objet dont nous récupérons le type instancié peut être lié à sa déclaration dans le code SystemC. Nous pourrons donc relier les informations statiquement extraites à un objet durant la simulation par ce biais. 3.3.4.2 Les informations relatives à la hiérarchie Statique La figure 3.8 représent e les informations récupérées par une analyse statique dans le cas où les points de connexion sont statiquement définis dans les composants . Malgré cela, dans le cas d’un instanciation dynamique, certaines parties d’un design ne pourront pas être récupérées. L’analyse révèle qu’une structure/classe contient un pointeur (dont on connaı̂t le nom) vers un certain type (en général non totalement définis comme indiqué dans la section précédente) ; mais rien ne permet de savoir si un objet y est réellement référencé. Un tel style de codage peut s’appliquer aussi bien à la déclaration des composants. 54 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact ?:M1 <t>?:M2<t> p1:T1<t> p1:T 1<t> p2:T1<t> p2:T1<t> Figure 3.8 – Design simple vue statiquement c1:M1 c2:M2 @(p1):T1 @(p1'):T1 @(p2):T1 @(p2'):T1 Figure 3.9 – Design simple vue dynamiquement Dynamique La hiérarchie après l’exécution de la phase d’élaboration de SystemC est contenue dans l’objet sc simcontext. Par le parcours de celui-ci, il est possible de la récupérer. Les informations récupér ées sont des listes de pointeurs d’objets de types sc object dans le cas général. Certains de ces objets font aussi partie de listes de pointeurs spécifiques telles que des listes de composants sc module, points de connexion sc port/export ou encore les connexions génériques sc prim channel comme déjà décrit dans la section 2.2.1. A partir de ces listes, il est possible de construire un arbre représentant la hiérarchie grâce à une fonction de la classe sc object. Cette fonction se nomme get parent() et retourne un pointeur sur un sc object. Il faut n’effectuer ce traitement qu’après la fin de la phase d’élaboration pour récupérer la hiérarchie d’un design instancié de manière sûre (c’est le moment où le design devient figé). 3.3.4.3 Les informations relatives aux noms des objets Statique Une analyse statique de code c++ classique permet de récupérer le noms de tous les attributs d’une structure/classe. On peut ainsi savoir la composition d’une structure/classe de manière sûre, ceux-ci étant figés par la définition de la structure/classe. Cependant, le nom d’une instance de cette même structure/classe ne peut être récupéré facilement. Il faut pouvoir identifier un élément racine. 3.3 L’approche choisie 55 Dynamique Certains éléments tels que les sc module embarquent un champ spécial obligatoire contenant leur nom. Celui-ci est requis à la construction de l’objet. Il nous suffit alors de consulter celui-ci pour récupérer le nom d’un composant. Comme énoncé dans la section 3.1.2, de manière plus générale, les objets n’embarquant pas le champ de nom sont en quelque sorte devenus anonymes. C’est le cas des éléments de type Port ou encore Connector. La seule chose qui puisse différencier ces objets est leur adresse mémoire. Celle-ci pourra être récupérée facilement en interrogeant la valeur du pointeur. Réconciliation Nous avons dû établir une manière de déduire de ces adresses le nom des points de connexion afin de pouvoir les différencier. Partant du fait que nous pouvons récupérer les informations relatives à l’adresse d’un composant en mémoire et qu’une spécification SystemC supplémentaire nous indique que les Ports sont contenus dans un composant (sc module), nous pouvons récupérer la différence d’adresse entre un composant et l’un de ces points de connexion. Plus généralement, nous pouvons récupérer la différence d’adresse entre tous les attributs d’une structure/classe et celle-ci à partir du moment où nous possédons une référence à chacun d’eux. D’autre part, il existe une macro c++ offsetof() qui permet de récupérer le décalage d’adresse d’un champ dans une structure. Pour utiliser cette macro, deux informations cruciales sont nécessaires, le type instancié de la structure et le nom de l’attribut à tester. C’est pourquoi, il nous faut entremêler analyse statique et dynamique de la manière décrite par la figure 3.10 afin de récupérer les informations nécessaires à son appel. Le type réellement instancié d’un composant est alors récupéré durant l’analyse dynamique pour être “généralisé” comme décrit dans la section 3.3.4.1. Ce type généralisé nous permet ensuite d’interroger le résultat de l’analyse statique qui lie les structures et classes généralisées aux noms de leurs membres. Nous sommes alors en possession d’assez d’informations pour appeler la macro offsetof() mais sa signature prend en entrée des paramètres et non des chaı̂nes de caractères. Nous avons donc été amené à instrumenter le programme pour l’utiliser. Nous générons alors un code c++ pour interroger tous les couples de composants/membres et récupérer ce décalage d’adressage. Après compilation et exécution, le résultat obtenu est une base de données liant les composants, le nom de leurs membres et leur décalage d’adresse. Une comparaison entre ces décalages d’adresse et ceux issus des objets réels nous permet alors d’associer le nom d’un membre et l’adresse d’un objet contenu dans un composant. Cependant, cette méthode doit faire appel à une exécution externe (i.e.,en dehors du programme principal utilisé pour l’analyse dynamique) car elle nécessite une nouvelle phase de compilation du code généré. Bien qu’adaptée dans la majeure partie des cas qui se présentent, il est à noter que l’utilisation de cette macro est limité à l’interrogation des membres publics d’une classe/structure. Nous avons été amené à étendre la démarche pour traiter les pointeurs. En partant du type instancié, nous pouvons déterminer si une variable est de type statique ou dynamique 56 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact Analyse dynamique Analyse statique liste d'objets instanciés typeid() liste des types d'objets instanciés liste des classes et structures statiques? séparation des types et de leurs paramètres liste des types d'objets statiques ref ref liste des noms des membres ref liste des paramètres Information necéssaire à l'utilisation de la macro offsetof() Figure 3.10 – Récupération du nom des membres grâce à la forme de la chaı̂ne de caractères retournée (section 3.3.4.1). Nous avons départagé la reconnaissance de la manière suivante. Si le type instancié est de la forme Type < Template > l’objet est alors dit statique simple et la méthode décrite ci-avant s’applique directement afin de réconcilier le nom à l’objet. Si le type est de la forme Type < Template > ([n])∗, il suffit de consulter la valeur de l’adresse de chaque case du tableau statique et ainsi générer les différents noms correspondants à chaque case du tableau statique à partir du nom du tableau. Pour les cas ou nous rencontrons la forme Type < Template > (0 ∗0 )∗, aucune indication quant à la borne du 3.3 L’approche choisie 57 potentiel vecteur n’est disponible. Dans le cas le plus simple où il n’y aurait qu’une seule *, on teste tout d’abord si le pointeur référence bien un objet et le cas échéant on applique la même méthode que pour le cas Type < Template > mais cette fois-ci en effectuant la réconciliation sur l’objet pointé et non sur le pointeur. Si ce pointeur n’est que le début d’un tableau il faut alors mémoriser cette information et étendre la réconciliation aux valeurs d’adresse du début du tableau auxquelles on ajoute la taille en mémoire du type instancié du tableau. Nous n’avons cependant pas exploré le cas où le nombre d’étoiles est supérieur à un, ce qui constitue en soit une limitation de notre approche. 3.3.4.4 Identification des spécialisations de ports Détection par héritage Tout point de connexion de la librairie SystemC dérive des classes sc port base et sc export base comme le décrit le diagramme d’héritage de la figure 3.11. C’est le seul moyen pour qu’il subsiste une trace de ces objets durant l’exécution. Sont alors dérivés de cette classe primitive les différents types de Ports rtl tels que les entrées/sorties ou encore les files (contenus dans le rectangle rouge). Types de ports SystemC Spécialisation de ports SystemC à identifier sc_core::sc_out<...> sc_core::sc_fifo_in<...> sc_core::sc_fifo_out<...> sc_core::sc_in<...> sc_core::sc_inout<...> Types de ports génériques sc_core::sc_export<...> sc_core::sc_port<...> Références conservées durant l'exécution sc_core::sc_export_base<...> sc_core::sc_port_base<...> Figure 3.11 – Diagramme d’héritage des Ports SystemC La version officielle de la librairie tlm définit les types de connexions à haut niveau comme héritant des classes sc port base ou sc export base comme nous l’avons expérimenté avec nos tentatives préliminaires de traduction sur des bibliothèques existantes (cf. section 3.5). Certaines 58 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact librairies telles que GreenSocs ou AMBA-pv im plément ent certains types de Ports transactionnels comme dérivant de ces types (figure 3.12). De ce fait, la détection des types de bases semblent suffisante pour pouvoir identifier les dérivés. Types de ports de la librairie AMBA-pv amba::amba_slave_socket<...> amba::amba_master_socket<...> Types de ports de la librairie GreenSocs gs::socket::target_socket_base<...> gs::socket::target_socket_callback_base<...> gs::socket::initiator_socket_base<...> gs::socket::initiator_socket_callback_base<...> Types de ports TLM officiels Types de ports ad-hoc tlm_utils::multi_target_base<...> tlm_utils::multi_init_base<...> Spécialisation de ports TLM à identifier tlm::tlm_target_socket<...> tlm::tlm_initiator_socket<...> Types de ports génériques tlm::tlm_base_target_socket<...> tlm::tlm_base_initiator_socket<...> Héritage à SystemC sc_core::sc_export<...> sc_core::sc_port<...> Figure 3.12 – Diagramme d’héritage des Ports TLM Nous avons donc élaboré une manière de distinguer les différences entre ces points d’interconnexion de manière à rester compatible avec les différentes librairies. Nous nous sommes basés sur la structure de donnée interne de SystemC contenant les informations génériques concernant les sc port base et sc export base instanciés durant la phase d’élaboration d’un design. Il s’agit d’une liste de références de tous les objets dérivants de sc port base et d’une autre pour les 3.3 L’approche choisie 59 objets qui dérivent de sc export base. Cependant, un dynamic cast vers le type de port spécialisé ne peut être utilisé car le type d’arrivée requiert des paramètres template. L’information dont nous disposons concernant le type véritable d’un sc port/export base le type instancié. Cette vue du type rend l’interprétation du paramètre template trop complexe pour être traitée de la sorte. Là encore, le recours aux informations issues de l’analyse statique devient nécessaire. Il est possible de parcourir les informations statiques dans le but de savoir si un type statique est une version template particulière d’un autre type ainsi que de savoir si le type non spécialisé dérive d’un autre et cela sans avoir à spécifier le paramètre template. Détection de contenance Un dernier obstacle subsiste : aucune règle n’empêche un développeur de créer ses propres types de Ports à partir de ceux fournis par SystemC. Pour cela il dispose de plusieurs possibilités telles que l’héritage, la contenance ou encore un construction hybride à partir de n’importe quel type dérivant de sc port base ou sc export base. C’est pourquoi nous ne pouvons nous limiter à la détection des seuls types contenus dans les rectangles rouges. D’autres librairies de composants telles que SoCLib, GreenSocs, et certains exemples de la librairie SystemC officielle car plus anciennes, implémentent d’autres types de port transactionnels. Jusqu’à présent, nous avons supposé que les ports étaient contenus directement dans leurs composants, ce qui est juste d’un point de vue modèle mais peut avoir différent encodage en c++. D’un point de vue dynamique, le niveau de contenance du port ne pourra être récupéré directement. En d’autres termes, en utilisant la méthode décrite à la section 3.3.4.2, nous ne pouvons pas déterminer si un sc port/export est un attribut du composant au sens c++ ou bien si il est contenu dans une structure qui l’encapsule, elle-même contenue dans le composant. Le cas échéant, cela rend inutilisable le calcul du décalage d’adresse. Dans le cas de la librairie GreenSoCs, il existe une autre définition des ports transactionnels (différente de celle décrite dans la figure 3.12). L’analyse manuelle du code d’un design l’utilisant nous a permis de constater que les ports transactionnels ne faisaient pas partie des structures reconnues par la méthode utilisant les héritages comme mode de reconnaissance. La figure 3.13 met en évidence l’encodage du design au sens c++ d’un des exemples utilisant ce genre de ports. Cette exemple contient au niveau le plus haut de la hiérarchie deux composants (sillysort et simplememory). Ces deux composants contiennent des ports transactionnels bien particuliers GenericInitiatorBlockingAPI<... > (équivalent des tlm::initiator socket) et GenericTargetBlockingAPI<... > (équivalent des tlm::target socket). En interrogeant les attributs des composants, nous pouvons récupérer les décalages d’adresses de ces ports transactionnels par la macro offsetof() mais ces valeurs ne correspondront en aucune manière au décalage d’adresse entre les objets de type composants et les objets de type sc port base. Pour cela il suffit d’étendre la recherche des sc port base et sc export base aux diffé- rents attributs des attributs des composants et cela de manière récursive car aucune contrainte de profondeur n’est imposée en terme de style de codage c++. 60 Chapitre 3 : Extraction de modèle structurel SystemC et exportation en IP-Xact sc_main sillysort GenericInitiatorBlockingAPI<...> simplememory sc_core::sc_module GenericTargetBlockingAPI<...> sc_core::sc_port<...> Figure 3.13 – Structure d’un exemple GreenSoCs 3.3.4.5 Les connexions entre Ports Cette dernière étape est cruciale afin de tisser le réseau d’interconnexion entre les différents Ports de composants. Elle n’est cependant pas la plus compliquée car l’information nécessaire est contenue dans les Ports eux-mêmes. Effectivement ceux-ci nécessitent des références vers les canaux de communication qu’ils vont utiliser durant la phase de simulation. De la même manière que pour l’instanciation des composants et des Ports, nous ne pouvons être certains de l’existence d’un lien que durant la phase active du programme SystemC. L’analyse statique est donc à proscrire mais une simple consultation d’un Port nous permet de lier celui à un canal. Ensuite, si deux Ports sont reliés à un même canal, cela signifie qu’il existe un lien entre ces Ports. 3.4 3.4.1 Mise en œuvre : l’outil SCiPX Présentation Nous avons développé un environnement de traduction, nommé SCiPX (pour SystemC to IP-Xact), qui combine et articule les analyses statique et dynamique telles que décrites en section 3.3. Son flot de traitement général est représenté dans la figure 3.14. Il prend en entrée du code SystemC (en haut à gauche) et produit en sortie un modèle IP-Xact (en bas à droite). Tout d’abord, nous utilisons un analyseur de code source c++ sur le code SystemC à analyser.
30,769
379fc6e39c98194d7b07b50e7006a55d_1
French-Science-Pile
Open Science
Various open science
2,022
Qui va là ? L’éthique interrogée par l’extraterrestre
None
French
Spoken
1,021
1,682
Qui va là ? L’éthique interrogée par l’extraterrestre Who goes there? Ethics questioned by the alien Jacques Arnould1 1 Centre national d’études spatiales, Paris RÉSUMÉ. L’éthique n’a pas coutume d’être interrogée par l’imagination. Pourtant, l’hypothèse d’une vie, voire d’une intelligence extraterrestre ne peut être ignorée par l’éthique. Dans ce cas, il ne s’agit pas tant de nous interroger sur les mœurs des possibles extraterrestres, mais plutôt de nous intéresser à l’humain, lorsqu’il est confronté à une possible vie qu’il ne peut pas partager. ABSTRACT. Ethics is not usually questioned by the imagination. However, the hypothesis of a life, or even an extraterrestrial intelligence cannot be ignored by ethics. In this case, it is not so much a question of questioning ourselves about the mores of possible extraterrestrials, but rather of taking an interest in the human being, when confronted with a possible life that he cannot share. MOTS-CLÉS. extraterrestre, éthique, protection planétaire. KEYWORDS. extraterrestrial life, ethics, planetary protection. Lorsque je lui ai demandé quelle place les travaux du Comité consultatif national d’éthique1, réservaient à l’imagination, j’ai vu la surprise s’afficher sur le visage de son président. Ce dernier venait de nous présenter les missions, les travaux et les derniers avis publiés par le CCNE et il ne s’attendait probablement pas à cette question qui semblait a priori étrangère à son exposé ; peut-être ma formulation avait-elle aussi été maladroite… Quoi qu’il en soit, je voulais simplement exprimer mon souci d’introduire dans tout processus, tout travail relevant de la réflexion éthique une dimension de projection dans l’avenir et, plus largement, dans une situation qui ne se limite pas trop rapidement à la sphère du connu, mais ose en franchir les frontières pour entrer dans le champ du possible et, pourquoi pas, de l’imaginaire. Une façon, à mes yeux, de reconnaître que l’éthique, loin d’être un frein au progrès, à l’innovation, dans le sens le plus original de ces deux termes, est au contraire une manière de préparer le futur. Je n’ose pas imaginer ce que ce président du CCNE aurait pensé de l’idée de soumettre à son comité le thème de l’extraterrestre… Si j’avais eu l’audace de le faire, j’aurais pu, en guise de préambule, lui rappeler ce que Camille Flammarion écrivait dans l’introduction à son livre La Pluralité des Mondes habités, publié en 1862 : ce qu’il qualifie de doctrine et pour laquelle il a recours à la dénomination alors la plus courante avant que notre époque ne parle d’extraterrestre et d’astrobiologie « doit concourir, explique le populaire astronome, à nous apprendre ce que nous sommes ». Et tel est encore l’objectif que nous pouvons donner à notre intérêt actuel pour l’hypothèse de vies et même d’intelligences extraterrestres et à la possibilité d’y associer une réflexion éthique. Dit autrement, nous ne devons pas nous contenter d’imaginer des êtres, des sociétés extraterrestres auxquels nous pouvons prêter des intentions, des mœurs, des sagesses ; les auteurs de science-fiction le font très bien et avec une diversité foisonnante, du gentil E. T., l’extraterrestre imaginé par Steven Spielberg à l’abominable Alien, le huitième passager mis en scène par Ridley Scott. © 2022 ISTE OpenScience – Published by ISTE Ltd. London, UK – openscience.fr Page | 1 une communauté d’êtres qui vivent dans un même milieu, par exemple extraterrestre). D’ores et déjà, nous nous soucions de ne pas apporter d’organismes vivants d’origine terrestre sur les planètes que nous explorons et, dans un avenir proche, de ne pas menacer les formes de vie terrestres en ramenant des échantillons d’origine extraterrestre ; tels sont les fondements de ce que nous désignons par le terme de protection planétaire. Mais quel développement devrons-nous donner à ce « souci » lorsque nous serons capables de mener des programmes d’exploration par des astronautes, voire d’envisager une utilisation et même une colonisation des planètes ? Le « Qui va là ? » qui sert de titre à ce court article ne concerne donc pas tant un hypothétique alien, découvert au cours de l’exploration d’une planète ou rencontré au pied de son vaisseau spatial, que nous, les humains, les Terriens, confrontés à la question de l’extraterrestre, à sa découverte, à sa rencontre et à ce qui pourrait suivre. Pour répondre à cette question, nous ne manquons pas de ressources. Celles fournies par l’histoire offrent « le meilleur et le pire » ; toutefois, prenons garde à ne pas nous embourber dans les ornières auxquelles une repentance mal comprise, mal gérée peut conduire, mais au contraire prenons soin d’y trouver matière à penser et raison de rechercher ce qui nous sépare autant que ce qui nous rapproche de tous les étrangers, réels ou imaginés qui peuplent déjà notre présent. Nous le savons : c’est là un immense défi, car nombre de nos philosophies, de nos théologies restent obstinément centrées sur nous-mêmes, bâties sur une attitude élitiste. Si la question de l’autre poursuit notre humanité comme son ombre depuis son émergence sur Terre, elle a malheureusement été le plus souvent source de crainte, d’angoisse, de peur… et de réactions violentes. C’est pourquoi l’imaginaire, comme l’explique Georges Chapouthier, doit être convoqué pour nous autoriser, nous stimuler à dépasser ces contraintes, ces frontières… si, du moins, nous cultivons une imagination positive et accueillante. J’aime le mot de Térence, écrit au IIe siècle avant notre ère : « Homo sum, et nihil humani a me alienum puto – Je suis homme, et rien de ce qui est humain ne m’est étranger. » Le rapprochement d’homo et d’alien, d’humain et d’étranger, fait directement écho à l’idée que j’ai ici brièvement proposée. Oui, sans même attendre la découverte d’êtres ou par des êtres extraterrestres, les terrestres que nous sommes ont déjà et encore tant à apprendre sur eux-mêmes, sur leur savoir et ses limites, sur la vie, son histoire, ses frontières, dès lors que nous acceptons de poser la question de l’alien, de l’étranger, de l’étrange. Une question qui, nous le savons, n’a pas d’autre limite que les horizons de notre univers, de notre réalité, avant même de nous demander si une autre peut exister... © 2022 ISTE OpenScience – Published by ISTE Ltd. London, UK – openscience.fr Page | 2.
46,969
01/hal.univ-lorraine.fr-tel-01777343-document.txt_11
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,208
11,438
145 Voir également à ce propos le travail de Morel (1992) portant sur un ensemble de dialogues oraux : Le système de marquage par un introducteur lexical se révèle très stable dans l'ensemble du corpus. Il s'opère à l'aide d'une préposition ou d'une locution prépositionnelle qui n'est pas liée à la construction du verbe, qui Et les extraits disposés ci-après d'illustrer ce point 146 : Quasi-LDs, finally, functionally resemble non-conversational LDs. Most of them are used for referent-introduction (on a less interactional level); others are contrastive; still others have very idiosyncratic functions. (Geluykens, op. cit.: 136) Dans cet exemple le marqueur quant à marque l'ancrage du référent «le film de Benigni» sur l'énumération précédente qui implique le film d'Angelopoulos ainsi que ceux de Ken Loach et de Woody Allen. Dans les deux autres exemples [] la segmentée à gauche [] : sa fonction introductrice paraît essentielle. Dans l'exemple 4.120 impliquant le «film de Benigni», la segmentée marque un changement de référent topical dans le cadre d'une énumération, [] (Grobet, op. cit. : 239) Force est de constater que, de manière générale, et notamment dans le cadre des travaux qui appartiennent au domaine de l'analyse textuelle (Charolles op. cit. et Adam op. cit.) 147, les formes de type en/ pour ce qui concerne ont encore tendance à ne pas être distinguées (pour leur traitement) de quant à. En fait, Fløttum (2003) est la seule (à notre connaissance) à avoir cherché à préciser la valeur différentielle de l'emploi en tête de construction segmentée de en ce qui concerne sur le plan discursif. L'objectif visé dans la partie qui s'ouvre ici est double. Premièrement il s'agit de vérifier la pertinence de l'hypothèse pré-théorique selon laquelle l'emploi comme E.I.C.S. des éléments sélectionnés ici pour examen remplissent une fonction discursive qui leur est propre – et, deuxièmement, de définir quelle est cette fonction. Pour y parvenir, nous procéderons en trois temps. Dans un premier temps, sur la base d'un examen approfondi des exemples de notre corpus, nous chercherons à référencer des indices susceptibles de valider la thèse de l'existence d'une fonction discursive propre à l'emploi comme E.I.C.S. des formes de type de en/ pour ce qui concerne. Après quoi, nous exposerons de manière détaillée et discuterons la thèse défendue par Fløttum (op. Nous préciserons que dans le cadre théorique élaboré par Charolles les formes de type quant à constituent des expressions introductrices de «champ thématique» (C.T). Les CT ont pour fonction première de signaler que ce que le locuteur est sur le point d'énoncer portera sur X. de en ce qui concerne dans la perspective d'une comparaison avec les propositions établies dans quelques-uns de nos principaux ouvrages de grammaire. Pour finir, nous procéderons à une série d'approfondissements qui, au final, nous permettra de soumettre notre propre analyse sur la question de la fonction textuelle remplie par la production en tête de construction segmentée des formes de type en/ pour ce qui concerne. 4.1 Etude du corpus en quête d'indices d'une fonction discursive 4.1.1 Récupération d'un élément en relation de co-partie avec X Le premier constat qui ressort de l'examen approfondi des exemples de notre corpus est le suivant : à l'instar de ce qui se produit pour la construction segmentée introduite par quant à – lequel élément est connu pour sa portée périphrastique –, il existe une importante série d'exemples pour lesquels le contexte linguistique immédiatement environnant {Pø} contient au moins un élément qui entretient une relation de co-partie (hyponymie ou autre) avec X et s'en distingue sur la base du contenu des informations versées sous P' 148, avec dans certains cas la présence d'une E.I.C.S. devant l'élément connecté à X par une relation de co-partie (exemple 50) 149. (50) J 'ai donné l'argent à Libby, et tu devrais le recevoir tôt ou tard. En ce qui concerne la guitare , je l'ai donnée à France et Eric pour qu'ils l'apportent à Paris . (Le Clézio, 1996 : 272 [F txt ]) [4] Dans cet exemple, l'élément distingué par en ce qui concerne – i.e. en l'occurrence le GN l'argent (ou plus précisément le référent de ce dernier) – est connecté à un élément de la phrase qui précède immédiatement la construction segmentée introduite par en ce qui concerne, soit en l'occurrence R.GN la guitare du fait d'une homologie dans la nature des informations versées sur chacun de ces deux éléments dans le texte, i.e. en l'occurrence la désignation de la personne à qui le locuteur a confié chacun des deux objets concernés. 148 Un examen approfondi de l'emploi des formes de type en/ pour ce qui concerne dans les productions de français contemporain montre que ce phénomène est propre au domaine de l'emploi comme E .I.C.S 149 Soit à titre illistratif : Pour ce qui concerne le festival «in», c'est le temps du démontage et les intermittents se remettent au travail. Pour le «off», certains jouent, d'autres pas. (Le Soir, 11/07/03 [Europresse]) [22-23] Et la figure (6) ci-après de faire apparaître distinctement cette homologie : l'argent (a) la guitare (b) < loc. / donner a à Libby > < loc. / donner b à France et Eric > - Figure 6 L'existence d'un lien entre le X du segment [en/ pour ce qui concerne X] et un élément du contexte en amont est encore plus nette lorsque, comme dans l'exemple (51) ci-après, la seconde partie de l'énoncé contient un tour comparatif tronqué 150. (51) [] En ce qui concerne les studios de cinéma, le bilan est encore plus alarmant. (Le Figaro, 03/08/02 : 8 [Europresse]) [37] Dans un premier temps, ce phénomène incite à penser que, à l'instar de quant à 151, la production comme E.I.C.S. des formes de type en/ pour ce qui concerne est destinée au soulignement (/ mise en exergue) d'une contrastivité. Et notre corpus de comporter nombre d'exemples – dont notamment (52) ci-après – qui vérifient la présence d'un élément de comparaison (plus, moins, etc.) qui n'est pas accompagné d'un élément repère à l'intérieur de {Pø}. (52) En ce qui concerne les océans, cette troisième dimension atteint un ordre de grandeur nettement plus élevé puisqu'ici on compte, non plus en dizaines de mètres , mais en centaines, voire en milliers de mètres. (Encyclopaedia Universalis, 1999 [lect. perso.]) [104] Pourtant, après approfondissement des recherches, nous constatons que, contrairement à quant à, la construction segmentée introduite par une forme de type en/ pour ce qui concerne n'est pas limitée au seul domaine de la distinctivité. Dans cet exemple, seul apparaît le premier terme du tours comparatif [qqch. /] être (encore) plus alarmant pour α que pour β. Le second élément du tour comparatif – en d'autres termes « l'élément repère » – fait pour ce qui le concerne l'objet d'une ellipse. 151 Dans sa Grammaire du français, Aslanides (2001) convoque la dénomination « contrepieds discursif » pour caractériser l'énoncé incident au segment [quant à X] (op. cit. : 168) En effet, comme illustré à travers la paire d'exemples (53) et (54) ci-après, la construction segmentée introduite par une forme de type en/ pour ce qui concerne procède parfois à l'exposition d'une analogie 152. (53) En ce qui concerne [ / * quant à] les autres travailleurs, les employeurs sont également tenus à ce remboursement s'ils ne justifient pas que [] (Collectif [Réforme sécurité sociale], 1968 : 44 [Ftxt]) [73] (54) Pour ce qui est du [/ * quant à] sens, on a exactement la même chose : on a [] (Peeters, 1999 : 52 [lect. perso.]) [215] Dans ces exemples l'adverbe également et l'adjectif même établi dans le groupe nominal la même chose marquent l'établissement d'une analogie (sur la base des informations versées sous P') 153 entre R.X et un élément du contexte linguistique en amont 154. Par ailleurs, la distinction entre les formes de type en/ pour ce qui concerne et quant à se fait également sur la base d'une absence de contrainte concernant l'existence d'une homologie entre les informations versées sur le compte de X et celles versées sur le compte du /des élément(s) qui partage(nt) avec lui une relation de co-partie 155. Et l'exemple (55) ci-après d'illustrer ce point : (55) [] Côté variétés, [] Flavie Flamant sera omniprésente sur les émissions de variétés avec un nouveau rendez-vous «Disques d'or», «Tubes d'un jour, tubes de toujours» et «Stars à domicile». TF1 maintient également sur ses grilles «Retour gagnant», et la désormais indétrônable « Star Academy» qualifiée de «quintessence de la télé-réalité» par M. Mougeotte. La troisième «promotion» sera présentée aux téléspectateurs samedi prochain par Nikos Aliagas. 152 Dans ce type de configuration, l'inacceptabilité de quant à tient à l'existence d'une antinomie entre la valeur d'analogie établie dans l'énoncé incident au segment [loc. prép. X] et la valeur de contrastivité (/distinctivité) qui est attachée à cette élément. 153 Avec dans les deux cas la nécessité de recourir au contexte linguistique en amont de {Pø} ; soit pour (54) : Seul l'usage veut que le verre d'eau soit gratuit dans les cafés de France (Op. cit.) et pour (55) : Les scènes de cruauté et de sang qui abondent dans l'Ancien Testament racontent l'histoire des hommes, et, hélas, quand j'ouvre les journaux, je vois que ça n'a pas tellement changé. (Op. cit.) 154 Soit, comme l'indique l'étude du contexte linguistique en amont, pour les exemples concernés, respectivement R.GN [la mise à disposition de] le verre d'eau gratuit [par les cafetiers] et R.GN les hommes. 155 Et la découverte de ce phénomène d'avoir comme point de départ le contraste qui s'opère entre (i) et (ii) ci-après – lesquels exemples ont été empruntés à Cadiot & Fradin (op. cit. : 238) –, (i) Les prix d'achat du mil et du sorgho ont bien été relevés. Quant à celui du riz, il n'a pas été modifié. vs. (ii) * Les prix d'achat du mil et du sorgho ont bien été relevés. Quant au riz, il n'en a pas été de même. Par ailleurs, le remplacement de quant à par une forme de type en/ pour ce qui concerne vérifie le fait que, dans le nouveau cadre, la production de (ii) devient parfaitement acceptable, soit : Les prix d'achat du mil et du sorgho ont bien été relevés. En ce qui concerne le riz, il n'en a pas été de même. Enfin, en ce qui concerne [/ * quant à] le sport, M. Mougeotte s'est réjoui par avance d'une «saison exceptionnelle» de Formule 1. (Le Nouvel Observateur [document disponible sur : archquo.nouvelobs.com/cgi/articles?ad=culture/20030828.OBS5493.html&datebase=200 30828]) [57] L'information qui consiste à dire que M. Mougeotte s'est réjoui d'une «saison exceptionnelle » de Formule 1 – laquelle information est versée sur le compte de (/ respectivement à) R.GN le sport – ne peut en aucune manière être rapportée à celui des éléments qui partage une relation de co-partie avec R.X, à savoir en l'occurrence R.GN les variétés 156. Et la figure (7) ci-après de vérifier une absence d'homologie entre les informations versées sur le compte de R.GN les variétés et celles établies respectivement à R.X, soit en l'occurrence R GN le sport 157 : les variétés (a) le sport (b) < T.F.1 / programmer > < M. Mougeotte / se réjouir par avance d'une saison exceptionnelle de Formule 1> - Figure 7 Enfin, la distinction la plus importante entre les formes de type en/ pour ce qui concerne et quant à réside dans la possibilité pour le (/les) élément(s) lié(s) à X par une relation de co-partie d'être (tous/ en partie) localisé(s) dans le contexte linguistique en aval de {Pø}. Et l'exemple (56) ci-après d'illustrer ce point : (56) La loi Falloux (du nom de []) fixa durablement, pour partie jusqu'à nos jours, certaines règles du système scolaire primaire et secondaire français. De fait, il y a impossibilité d'appliquer les informations versées sur R.X à R.GN les variétés : # En ce qui concerne les variétés, M. Mougeotte s'est réjoui par avance d'une saison exceptionnelle de Formule 1. d'éléments (parmi lesquels X) mais cherche à dégager (/ marquer explicitement) celui des éléments qui tient lieu de point de départ pour le développement de la prédication qui est sur le point d'être énoncée. 4.1.2 Marques typographiques et phénomènes d'anaphores Parmi les autres indices de l'existence d'une portée périphrastique pour l'emploi comme E.I.C.S. des éléments sélectionnés ici pour examen figurent (i) la présence régulièrement attestée dans le cadre de l'emploi en séries de la construction segmentée introduite par une forme de type en/ pour ce qui concerne – lequel phénomène touche plus particulièrement certaines catégories de documents que d'autres 158 – d'une lettre ou d'un chiffre (/ ensemble de chiffre) 159 qui marque la hiérarchisation des énoncés les uns par rapport aux autres 160 devant le segment détaché à l'initiale – et (ii) la récursivité de la présence d'éléments anaphoriques à l'intérieur de la phrase-hôte. Et les exemples (57) et (58) ci-après d'illustrer chacune des deux configurations décrites ci-avant. Soit pour (i) : (57) 11.221- [] 11.222 - En ce qui concerne les autres bénéficiaires visés à l'article 4.23, la part des revenus que leur consacrait l'assuré doit être justifiée par eux. (Filia Maif / Contrat d'assurance PACS, 2003: 6 [lect. perso.]) [362] et pour (ii) : (58) De son côté Tom Mann, responsable de CSEF (Lux.) France B (- 39,2%) estime que « [] ». En ce qui le concerne, il a pris la décision de demeurer investi en totalité en favorisant les sociétés les plus performantes. (Les Echos, 21/02/03 : 11 [Europresse]) [11] 158 Voir notamment à ce sujet les textes juridiques et administratifs. 159 Lesquels éléments sont parfois complétés d'un tiret. 160 Et cet élément de distinguer la construction segmentée initialisée par une forme de type en/ pour ce qui concerne de la construction segmentée nue, et de la construction segmentée introduite par quant à. Certes, d'eux-mêmes les éléments répertoriés sous les points (i) et (ii) ne constituent pas des marques formelles de l'existence d'une fonction discursive pour l'emploi comme E.I.C.S. des formes de type en/ pour ce qui concerne. Ils garantissent néanmoins le fait que la correspondance X-EiX s'inscrit dans la continuité de ce qui précède. Ainsi, l'insertion de l'élément « 11.222 » devant {Pø} dans l'exemple (57) atteste du fait que les informations versées dans la construction segmentée avec E.I.C.S. participent – au même titre que les informations établies plus haut sous le point « 11.221 » – au développement du point 11.22. De l'exemple (57) nous retiendrons que le complément d'une forme de type en/ pour ce qui concerne – vérifie la possibilité d'être représenté par un élément référentiellement insaturé qui tire sa référence d'un élément établi dans le contexte linguistique en amont de {Pø} sur le mode de l'anaphore directe 161. Toujours dans la perspective de la recherche d'une spécificité pour l'emploi en tête de construction segmentée des formes de type en/ pour ce qui concerne (vs. quant à notamment), nous retiendrons la réalisation d'une expression anaphorique non coréférentielle de X dans la position sujet sous P' ; et l'exemple (59) ci-après d'illustrer ce point 162 : (59) En ce qui concerne les ventes et l'auto-promotion, c'est une évidence. (L'Express, 15/08/05 : 65 [lect. perso.]) [32] La réalisation de l'expression anaphorique ce 163 (non-coréférente de R.X) en position sujet dans l'énoncé incident au segment [loc. prép. X]– laquelle configuration constitue une complète anti-prototypie pour l'emploi comme E.I.C.S. de quant à 164 –, montre une certaine récursivité dans notre corpus. Aussi, le blocage qui s'exerce sur l'emploi de 161 Vs. quant à notamment : * De son côté Tom Mann, [] estime que « [] ». Quant à lui, il a pris la décision de demeurer investi en totalité en favorisant les sociétés les plus performantes. Laquelle configuration est a priori limitée au domaine de l'anaphore associative dans le cas de quant à. Cf. à cet égard l'exemple cité par Fløttum (1999 : 140) : [] dans ce Jardin nommé, sans orgueil, gourmand [] Quant à la carte, [] 162 Cf. 164 Comme l'ont établi les auteurs des études consacrées à l'élément quant à – cf. Fløttum 1999 et Choi-Jonin op. cit. – la situation la plus répandue pour le sujet de P' consiste en l'apparition d'un élément ponominal coréférent de X. quant à tient généralement au fait qu'il n'existe pas dans le contexte linguistique en amont de la construction segmentée avec E.I.C.S. d'élément susceptible d'être relié à R.X sur la base des informations versées sous P' 165. 4.1.3 Présence d'un connecteur A l'instar des phénomènes d'anaphore qui sont régulièrement établis dans la construction segmentée introduite par une forme de type en/ pour ce qui concerne, la présence d'un connecteur devant l'emploi en tête de construction segmentée d'un des éléments étudiés ici – lequel phénomène est en outre assez largement répandu dans notre corpus –, ne constitue pas à elle seule un indice de l'existence d'une fonction discursive pour l'emploi comme E.I.C.S. de ces mêmes éléments. Elle garantit néanmoins le fait que la correspondance X-EiX intervient en tant que partie constitutive d'un développement discursif (argumentation, explication, etc.). Les connecteurs sont connus pour être des éléments de liaison entre des propositions ou des ensembles de propositions. Ils assurent la cohérence du texte et contribuent à sa structuration en marquant des relations sémantico-logiques. Dans notre corpus, les éléments qui marquent une articulation du raisonnement – en particulier les connecteurs énumératifs et argumentatifs 166 – sont particulièrement bien représentés (vs. les connecteurs de reformulation). Parmi les connecteurs énumératifs figurent en première ligne ceux qui procèdent à une structuration de l'énumération, en assignant à la séquence concernée une place dans la série (d'abord, ensuite, etc.) 167. Comme permet de le constater un examen approfondi des exemples de notre corpus, il n'existe aucune contrainte formelle pour la réalisation de la construction segmentée introduite par une forme de type en/ pour ce qui concerne respectivement à l'ordre de présentation des idées (ouverture, relais ou encore clôture) 168. Et les exemples (60)-(62) ci-après d'en fournir une illustration attestée : 165 Cf par exemple : * Houellebecq a-t- il progressé depuis??? Quant aux ventes et l'auto-promotion, c'est une évidence. vs. [] Quant à la Corée du Nord, qui a décidé de relancer son programme nucléaire, il [le président Bush] a estimé que la voie diplomatique était la meilleure pour l'en dissuader 166 Lesquels éléments, il convient de le rappeler, sont surtout spécialisés dans l'exposition d'idées. 167 Dans son étude comparative de l'emploi en tête de construction segmentée de quant à et en ce qui concerne, Debaisieux (op. cit.) note que si le second de ces deux items peut parfaitement être associé à des éléments à valeur d'ordonnancement, ce n'est pas le cas du premier. Et l'auteur de produire à cet égard l'exemple suivant:?? ouais alors après quant à la fabrication de cierges [] (Op. cit. : 135) 168 Comme l'a indiqué Fløttum (op. cit.), ce phénomène constitue une variante par rapport à l'emploi de quant à, lequel élément est incompatible avec la position d'ouverture (* Tout d'abord, quant à []). (60) Tout d'abord, en ce qui concerne l'auteur, le mettre dans l'impossibilité de nuire. (Gurvitch, 1968 : 218 [Ftxt]) [75] (61) Ensuite, en ce qui concerne la pression artérielle, les valeurs recommandées de 130/85-mmHg ne sont trouvées que chez 47,8 % des patients hypertendus traités du groupe-1, 38,9 % de ceux du groupe 2 et 35,1 % du groupe 3. (Dendoune in Le Concours Médical 23/09/00 [document disponible sur : www.info-presse.fr/fiches/ concours-medical-medecins]) [100] (62) Enfin, pour ce qui concerne les montres, seul le bon fonctionnement du mécanisme est garanti, et en aucun cas le bracelet ou les piles. (Site de la société commerciale AVH [document disponible sur : www.avh.asso.fr/magasin/ produits/conditions-generales.php]) [130] A l'exception de la conjonction de coordination et, les marqueurs additifs (ou, également, de même) sont peu répandus dans notre corpus, de même que ceux qui indiquent une progression (en outre, de plus, etc.) tandis que les connecteurs argumentatifs – lesquels marquent diverses relations entre les parties d'un texte et sont généralement employés en association dans le cadre d'un raisonnement ou d'une argumentation suivie –, sont largement attestés. Aussi ces derniers relèvent-t-ils essentiellement du domaine du contraste et de l'opposition (par contre, en revanche, toutefois, mais, etc.) 169 ; et les exemples (63) et (64) ci-après d'en produire une illustration attestée : (63) Notons pour l'exemple que les intoxications au ficus par ses feuilles sont généralement bénignes. Par contre, en ce qui concerne l'if et ses fruits, le risque d'une intoxication grave est bien réel, voire mortel, surtout lorsque les graines ont été croquées. [ ]) [21] (64) § Jean-Michel Pinet, [], reconnaît, dans son rapport de 1993, n'avoir pu recueillir aucun chiffre fiable concernant les tarifs pratiqués par les propriétaires fonciers, qui louent aux chasseurs le droit de traquer le gibier sur leurs terres. [] . § Mais en ce qui concerne les propriétaires privés, on ne sait strictement rien. (Constanty, 2002 : 169-170 [lect. perso.]) [33] Une étude en diachronie montre que le phénomène s'attache un taux de réalisation également très important – a priori même plus élevé – dans la période de français classique et notamment au XVIIe siècle. D'ailleurs, l'insertion du connecteur mais devant l'emploi comme E.I.C.S. d'une forme de type en/ pour ce qui concerne constituait dans cette période une configuration prototypique (exemples 65-67) : (65) [] tous les ordres religieux catholiques, qui ont esté, sont, et seront, n'ont qu'une mesme foy, et un mesme dieu, bien qu'ils portent divers habits, et ayent quelques particulieres façons 169 Ceux des éléments qui marquent une explication (car, parce que, etc.) et une justification (dans la mesure où, etc.) de même que ceux qui marquent une conclusion (donc, ainsi, etc.) sont réalisés quant à eux des proportions moindres. et ceremonies, desquelles ils usent en servant Dieu; mais pour ce qui est du fond, ils cheminent par la mesme voye de l'evangile, par laquelle vont tous les autres chrestiens. (Mersenne, 1624 : 529 [Ftxt]) [249] (66) Les deux premières perfections doivent se rencontrer également dans toutes sortes de discours. Mais pour ce qui regarde la dernière, elle change selon la nature des sujets qui sont traittez; et quiconque n'observe ces différences, ne produira jamais que des monstres. (Godeau, 1630 : XVII [Ftxt]) [300] (67) Maintenant que vous nous faictes de si belles propositions, dit Clarimont, je suis en grand bransle de vous croire entierement : mais pour ce qui est de vos comedies je les approuve plus qu'aucune chose que j'aye jamais ouye. (Sorel, 1627 : 350 [Ftxt]) [241] La production du connecteur argumentatif tiré du domaine de l'explication car ainsi que dans une moindre mesure celle du marqueur d'addition et étaient également toutes deux largement répandues devant le segment [pour ce qui est de / regarde/ etc. X] dans l'état de langue concerné (exemples 68 et 69) 170. 171 172 Op. cit. 1999c. Cf. également cet autre exemple du même auteur : Mais quant à sa forme, qu'il soit si haut monté sur ses quatre jambes que celuy que Belon a représenté par portrait [] (Op. cit. : 39). Et de fait, ceux qui creurent leur conseil s'en trouverent bien : car quant à nos matelots, qui [] plus de la moitie creverent et moururent soudainement de trop manger. Mais quant à nous autres quinze passagers qui [] il n'en mourut pas un seul [] (Op. cit. : 30) Dans l'exemple emprunté à Combettes, la locution quant à introduit chacun des deux groupes de personnes respectivement auxquels le locuteur entend produire une énonciation, soit en l'occurrence les matelots et les passagers de l'embarcation. Pour chacun de ces deux référents, l'énoncé incident au segment [quant à X] décrit le sort réservé à la catégorie de personnes concernée. La présence de la conjonction de coordination car devant la première des deux constructions segmentées introduites par quant à – laquelle sera établie comme étant {Pø}– ancre le contenu de la correspondance X- EiX sur un élément du contexte linguistique en amont de {Pø}, à savoir l'énoncé « Et de fait, ceux qui creurent leur conseil s'en trouverent fort bien » sur le mode de la justification. Quant à la conjonction de coordination mais placée à l'ouverture de la seconde des deux constructions segmentées initialisées par quant à (soit {P+1}), celle-ci raccroche le contenu de {P+1}à celui de {Pø} sur le mode de la contrastivité. Aussi, comme l'a fait remarquer Debaisieux (op. cit.), en français contemporain, aucun de ces deux connecteurs n'est compatible avec l'emploi comme E.I. .S. de quant à 173. Et les résultats de l'opération qui consiste à opérer le remplacement d'une forme de type en/ pour ce qui concerne par quant à dans des exemples d'emplois attestés – soit notamment ceux établis plus haut sous (63) et (64) – de confirmer cette donnée pour ceux des connecteurs qui appartiennent au domaine de l'opposition (exemples 63' et 64'). (63')??? [Notons pour l'exemple que les intoxications au ficus par ses feuilles sont généralement bénignes.] Par contre, quant à l'if et ses fruits, le risque d'une intoxication grave est bien réel, voire mortel, surtout lorsque les graines ont été croquées. 173 Cf. les contrastes relevés par l'auteur (op. cit. :134-135) dans les exemples qui suivent : - L1 d'accord euh ensuite + te sens-tu à l'aise face à l'évolution du vocabulaire [] L2euh pff moyennement parce que en ce qui concerne les sigles c'est vrai qu'il y en a énormément? moyennement parce que quant aux sigles c'est vrai qu'il y en a énormément - [] : sinon en ce qui concerne les abréviations euh ça dépend il y a des abréviations que je comprends bien d'autres non + vs.?? sinon quant aux abréviations euh ça dépend il y a des abréviations que je comprends bien d'autres non + Et l'application du test de substitution à un exemple attesté de l'emploi d'une forme de type en/ pour ce qui concerne précédée du connecteur car, de vérifier l'incompatibilité de quant à avec le domaine de la justification dans la période de français contemporain 174 (exemple 70). (70) Ce n'était donc pas grave car pour ce qui était du [ / * quant au] menton, ça se replaçait tout seul avant l'âge de 5 ans, et pour le palais, [] (Document disponible sur : groups.msn.com/LesPtitsLeloups/notrehistoire.msnw) [198] Par ailleurs, un examen détaillé des emplois en diachronie montre que l'insertion du connecteur car devant une forme de type en/ pour ce qui concerne trouvait déjà des attestations au début du XVIIe siècle 175 (exemples 71 et 72). Nous avons constaté un quasi équilibre entre la production de quant à et celle des formes de type en / pour ce qui à la suite des connecteurs mais et car dans FRANTEXT [1635-1715], soit respectivement 60 et 52 occurrences. En revanche pour la période [1560-1629], la même configuration atteste d'un écart très important, soit respectivement 206 vs. 21 occurrences. 176 Soit à titre illustratif : Quant à ceulx qui donnent matiere de scandale, je dy qu'ils ne sont pas tant malings de nature, ny à [] (Calvin / Exemple cité dans Prévost, op. cit. : 450) 4.2 Thèses en concurrence La sous-partie qui s'ouvre ici est consacrée à la présentation ainsi qu'à l'étude critique des thèses soutenues par d'autres avant nous au sujet de la fonction textuelle remplie par l'emploi comme E.I.C.S. d'un/ plusieurs élément(s) de la famille des formes de type en/ pour ce qui concerne. 4.2.1 En grammaire Une étude détaillée des ouvrages de grammaire contemporains, lesquels ont généralement comme point commun de se limiter au relevé de en/ pour ce qui concerne (seule une infime partie d'entre eux procède à l'adjonction de pour ce qui est de) 177 – met à jour le fait que, dans la plupart des cas, il n'est fait mention que d'un seul niveau d'analyse, à savoir : le niveau phrastique. Quant à, pour, ainsi que la périphrase pour ce qui est de, servent à mettre en relief un terme (le thème : cf § 228) de la phrase ou de la proposition, généralement avec redondance. (Grévisse, 1997 : 1559) La loc. prép. quant à introduit normalement un complément qu'on pourrait appeler complément de propos, indiquant ce qui est concerné par le procès développé dans la phrase. Placée en tête de phrase, elle a moins pour fonction, le plus souvent, de préciser à propos de quoi le procès lui-même a lieu que d'indiquer ce à propos de quoi le locuteur a éprouvé le besoin de prendre la parole, et de prononcer sa phrase. Pratiquement, la tournure quant à (comme la locution pour ce qui est de, etc.) sert à souligner, en l'isolant et en le détachant, un mot qui, repris plus loin par un pronom, ne se voit que plus tard attribuer une fonction grammaticale de sujet ou de complément dans la phrase : [] Ce type de complément concerne le thème de l'énoncé. (Frontier, 1997 : 116-117) Avec ce type d'analyse aucune distinction n'est faite entre le X d'une construction segmentée à gauche sans introducteur et le X introduit par une expression introductrice telle que en/ pour ce qui concerne par exemple 178. Le(s)quel(s) élément(s) est (/sont) du reste toujours présenté(s) conjointement à quant à, lequel est en principe le seul à faire l'objet d'une entrée lexicale dans l'index des ouvrages concernés. 178 Cf. à ce propos le commentaire de Larsson (op. cit. :10-11) au sujet de la fonction remplie par le détachement à l'initiale d'un élément dans le cadre d'une « construction segmentée nue» (i.e. sans E.I.C.S.) : L'effet communicatif obtenu en disloquant un élément à gauche est de marquer ouvertement le thème de la phrase. Le thème indique un certain phénomène, un certain individu, etc. à propos duquel la phrase suivante donnera des informations ou posera des questions. Le locuteur invite celui à qui il s'adresse à actualiser et à isoler un certain concept et le prépare ainsi à la communication suivante. Ainsi, Le Goffic (1993) et aussitôt après lui Riegel & alii. (1994) font figure de précurseurs lorsqu'ils introduisent dans le domaine grammatical la thèse d'une fonction discursive pour l'emploi en tête de construction segmentée de ce qui était alors généralement désigné sous le terme de « les formes de type quant à ». On se retrouve près des circonstants énonciatifs d'organisation du discours avec quant à, en ce qui concerne, pour ce qui est de: instruments de thématisation (cf. les GN en prolepse) ; [] (Le Goffic, op. cit. : 465) Certaines formules de détachement soulignent la dislocation et marquent une rupture thématique dans le déroulement d'un texte : en ce qui concerne, pour (ce qui est de), quant à. Elles introduisent un groupe nominal qui s'oppose à un autre, figurant souvent dans le contexte antérieur : [] Les passions, j'ai assez roulé ma bosse pour m'y connaître; quant aux traits d'esprit, c'est mon métier! (Flaubert) (Riegel & alii, op. cit. : 430) Le commentaire de Riegel & alii. est plus complet que celui de Le Goffic dans la mesure où ses auteurs ont pris soin de spécifier la nature de la fonction textuelle assignée à l'emploi comme E.I.C.S. des éléments concernés, à savoir en l'occurrence : le marquage d'une rupture thématique dans le déroulement d'un texte. 4.2.2 En linguistique A l'instar de ce qui se produit dans le domaine grammatical, la littérature linguistique vérifie également la tendance qui consiste à ne pas dissocier les formes de type en/ pour ce qui concerne et quant à. Et ce phénomène d'être attesté aussi bien dans le cadre des analyses conversationnelles que dans celui des analyses textuelles. En fait, comme nous l'avons signalé plus haut, Fløttum (op. cit.) est (à notre connaissance) la seule à avoir cherché à distinguer l'emploi comme E.I.C.S. d'une des formes de type en/ pour ce qui concerne (soit en l'occurrence le prototype de cette famille de E.I.C.S.) de celui de quant à sur la base de la/ des fonction(s) discursive(s) qui leur sont respectivement assignée(s). Aussi, nous commencerons par rappeler brièvement quels sont les cadres théoriques adoptés par l'auteur pour son étude. 4.2.2.1 Cadres théoriques de la thèse défendue par Fløttum Pour les phénomènes qui ont trait à la « dimension structurelle », Fløttum a adopté la conception formelle de la délimitation du thème et du rhème développée par Halliday (1967) 179, de sorte que la notion de thème désigne le premier constituant de la phrase et le rhème le second 180. Pour l'analyse des phénomènes relatifs à la « dimension sémantico-référentielle », l'auteur s'est appuyée sur l'optique de hiérarchie sémique initiée par Rastier (1987, 1996) 181, laquelle pourra être illustrée à partir de l'exemple concret exposé dans la figure (8) ci-après. FRUIT [végétal] [vitaminé] etc. pomme [sphérique] [lisse] [climat continental] etc. grenade [sphérique] [lisse] [climat tropical] etc [] etc. - Figure 8 Enfin, pour l'analyse des phénomènes relevant de la « dimension pragmatique » – i.e. pour la question de la fonction informationnelle remplie par l'emploi comme E.I.C.S. du segment [en ce qui concerne X], l'auteur s'est inspiré de la théorie de la focalisation élaborée par Nølke (1994, 1997) et en particulier du concept de « focalisation spécialisée», lequel est destiné à rendre compte de l'adjonction de visées particulières par rapport à la « focalisation simple » qui, pour ce qui la concerne, est limitée à la seule visée d'identification. 4.2.2.2 Présentation de la thèse élaborée par Fløttum 179 Soit d'après Halliday (op. cit.: 212) : The theme is what is being talked about, the point of departure for the clause as a message ; [] : the theme is assignend initial position in the clause, and all that follows is the rheme. 180 L'approche syntaxique de la définition du thème comme point de départ rencontre un large écho (cf. par exemple Nølke 1994; Tschida 1995; Gómez-González 2001 ainsi que les travaux de Chomsky & Gundel évoqués par Schlobinsky & Schütze-Coburn 1992 : 96ss.). Cette définition du thème se distingue de celle de Daneš (1974), Dik (1977) et Lambrecht (1994), laquelle est fondée sur la notion d'aboutness (i.e. le thème comme ce dont il est question). Pour une classification des différentes conceptions du Thème, cf. Schlobinski & Schütze-Coburn (op. cit.). Pour mémoire, nous rappellerons que, dans son étude de quant à, Fløttum (1999) avait déjà retenu cette approche pour montrer que le X de quant à X se distingue d'un segment de même niveau sémantique qui figure dans le contexte antérieur immédiat : Comme je l'ai indiqué au début, j'opte pour la conception formelle de la délimitation du thème et du rhème élaborée par M.A.K. Halliday [] Dans son étude comparative de l'emploi en tête de construction segmentée de quant à et de en ce qui concerne, Fløttum conclut que ces deux marqueurs se distinguent par la nature des fonctions textuelles qui leur sont assignées, i.e. en l'occurrence le marquage d'un changement thématique à l'intérieur d'un paradigme sémantique doublé du marquage de la clôture d'une série (ou d'un relais) pour le premier et l'introduction d'un thème textuel pour le second. [] en ce qui concerne aide à démarrer le développement d'un thème textuel. [] quant à se révèle comme étant une locution qui marque un segment en étroite relation sémantique avec un segment déjà mentionné, tandis que en ce qui concerne marque un segment relativement nouveau – il démarre un développement thématique. [], dans le module de la structure compositionnelle du texte, c'est-à-dire au niveau proprement textuel, quant à se caractérise comme un MIL, marquant le dernier segment d'une série. (Op. cit. : 195 - 200) Avant toute chose, il convient de préciser que les travaux réalisés par Fløttum s'inscrivent davantage dans une perspective descriptive qu'argumentative. La thèse avancée par l'auteur – i.e. la fonction d'aide au démarrage d'un thème textuel – est pour l'essentiel induite d'une série de constats établis à partir de l'observation d'exemples attestés pris au quotidien de presse Le Monde entre 1992-1993 et 1995-1996, parmi lesquels notamment ceux exposés ici-même en (74) et (75). (74) Dans le domaine de la politique culturelle, qui sera débattue, lundi 13 mai, devant le Conseil de Paris, Jean Tiberi, maire (RPR), ne sort pas des sentiers longuement battus par Jacques Chirac. [] En ce qui concerne le patrimoine, la continuité se traduit par la poursuite de la rénovation de la place de la Concorde et la restauration des églises parisiennes (les travaux de Saint-Germain-des-Près vont commencer). La tour Saint-Jacques devrait bénéficier des mêmes soins. Par ailleurs, le Petit-Palais doit subir un réaménagement complet pour lui permettre de présenter ses collections, dont la plupart sont actuellement en caisses. Quant à la Gaîté-Lyrique, théâtre massacré avec l'aval de la Ville de Paris, il devrait être entièrement refondu pour se consacrer à «l'apprentissage des arts et des métiers du spectacle». (Le Monde / Exemple cité dans Fløttum, op. cit.: 191) [26] (75) Les accusations prononcées contre l'Agence ne sont pas toutes sans fondement, explique au Monde le professeur Jean-Michel Alexandre, président du comité des spécialités pharmaceutiques de l'Agence européenne du médicament et directeur de l'évaluation du médicament à l'Agence française du médicament. En ce qui concerne le D4T, il n'existe aucun obstacle. L'Agence européenne du médicament a donné un avis favorable et une autorisation de mise sur le marché va être notifiée dans les jours à venir avec une indication large. (Ibid.: 195) [25] Un de principales observations faites par Fløttum après examen des exemples de son corpus et notamment de celui référencé ici-même, ci-avant sous (74) est que « le X de en ce qui concerne X est plus général» 182 que le X introduit par quant à. Mais, à la suite d'un examen approfondi des exemples de son corpus, l'auteur est amené à établir que, contrairement au X de quant à X, le complément de en ce qui concerne « n'est pas en étroite relation avec un segment antérieur précis» 183 (notamment par l'intermédiaire d'une relation d'hyponymie 184 ) et que, à ce titre, il peut être considéré comme un élément « plus ou moins nouveau » 185. Le fait qu'une partie des exemples du corpus de l'auteur atteste de la possibilité pour le X de en ce qui concerne X d'être lié à un élément du contexte linguistique en amont par une relation d'anaphore associative 'amène toutefois à nuancer son propos 186. Le X dans en ce qui concerne X semble le plus souvent être plus général que le X dans quant à X, au moins dans les contextes où les deux apparaissent. Cependant, j'ai aussi relevé des exemples où le X dans en ce qui concerne X constitue un sous-thème d'un thème déjà évoqué. [] C'est que, dans certains cas [], il semble pertinent de considérer le X dans en ce qui concerne X comme une anaphore associative. (Op. cit. 182 Op. cit : 192. 183 Op. cit. : 191. 184 Nous rappellerons que dans le cadre de son étude portant sur l'emploi comme E.I.C.S. de quant à, l'auteur avait fait apparaître que l'hyponymie constituait une prototypie pour le X de quant à X. 185 [] dans certains cas (voir par exemple []), il semble pertinent de considérer le X dans en ce qui concerne X comme une anaphore associative [], ce qui fournirait une explication intéressante du 'plus ou moins nouveau'. (Op. cit.: 193)Op. cit. : 192. 186 [La locution en ce qui concerne introduit une notion plus générale (le patrimoine) que la locution quant à (la Gaîté-Lyrique, théâtre)]. Le X dans quant à X constitue ici un sous-thème et fait partie de quelques chose de déjà introduit, tandis que pour en ce qui concerne, il s'agit de l'introduction d'un sujet, quelque chose de plus ou moins nouveau. (Op. cit. : 192) 187 Op. cit. : 198 188 Op . cit. : 199 Sur la base de la série d'observations faites à partir de l'étude des exemples de son corpus, Fløttum établit que « pour en ce qui concerne, la visée de contraste n'est pas pertinente» et que cet élément s'attache essentiellement une fonction d'«introducteur thématique » 189. [] [avec en ce qui concerne] il n'y a pas dans le cotexte immédiat, de segment précis par rapport à quoi X serait mis en contraste. Pour en ce qui concerne, c'est plutôt une introduction thématique dont il s'agit. On porte à l'attention de l'allocutaire un thème/ objet, sans le mettre en contraste avec un autre thème précis, déjà mentionné (Op. cit.: 195) En dépit de l'attestation d'exemples pour lesquels le contexte linguistique environnant la correspondance X-EiX introduite par en ce qui concerne contient un (/ des) élément(s) en relation d'hyponymie (ou de co-partie) avec X, Fløttum établit que (i) il est « peu pertinent de parler d'une série » 190 s'agissant de cette E.I.C.S. En ce qui concerne marque l'introduction d'un thème, que ce soit le début d'une série ou non. [] dans beaucoup de cas, il s'agit d'une visée introductrice : en ce qui concerne aide à démarrer le développement d'un thème textuel. (Ibid.) et que (ii) c'est une fonction de «focalisateur spécialisé dans l'introduction thématique» 191 que remplit la production en tête de construction segmentée de la locution en ce qui concerne. En conclusion, quant à est un focalisateur spécialisé thématique, avec une visée de contraste nette, et signale un changement thématique local, tandis que en ce qui concerne est un focalisateur spécialisé thématique, qui signale une introduction. (Ibid.) Là encore, les propos de l'auteur sont empreints d'une certaine modération : Un rôle typique est peut être de signaler un hyperthème. Mais cela ne peut pas servir de caractérisation générale. On a vu que en ce qui concerne peut aussi signaler quelque chose de spécifique dans un contexte général. (Ibid. 4.3 Discussion 189 Op. cit. :195 190 Op. cit. : 198 191 Op. cit: 195 4.3.1 Marquage d'une rupture dans le déroulement d'un texte L'analyse grammaticale proposée par les auteurs de la Grammaire méthodique du français (op. cit.) repose sur la présence dans le contexte linguistique en amont de la construction segmentée introduite par quant à, en ce qui concerne, etc. d'un élément qui entre dans une relation d' « opposition » (ou plus précisément de contrastivité) avec R.X sur la base des informations versées sur X dans le texte. D'ailleurs, l'exemple retenu par Riegel & alii. pour illustrer leur propos – lequel exemple est tiré d'un ouvrage de Flaubert et met en jeu l'emploi détaché en tête de construction segmentée de quant à – atteste du phénomène. En effet, dans cet exemple le groupe nominal les traits d'esprit – ou plus précisément son référent – « s'oppose » à R.GN les passions sur la base de l'origine de leurs connaissances respectives par le locuteur, i.e. en l'occurrence une expérience professionnelle vs. une expérience personnelle, comme établi dans la figure (9) ci-après : Origine des connaissances du loc. = expérience personnelle les passions Origin e des connaissances du loc. = activité professionnelle Ei X les traits d 'esprit X - Figure 9 - Le principal apport de cette analyse est qu'elle opère une distinction entre la construction segmentée introduite par des marqueurs tels que quant à, en/ pour ce qui concerne, etc. et la construction segmentée nue. En effet, comme en atteste l'exemple d'emploi relevé par Le Querler (op. cit.) à l'ouverture du roman de Duras Une pluie d'été 192, la construction segmentée nue ne présente pour ce qui la concerne aucune obligation en matière d'antériorité textuelle (vs. les formes de type quant à) 193. Soit en l'occurrence : Les livres, le père les trouvait dans les trains de banlieue.
576
a66321084fc1a0f74d3cb626ec94da60_21
French-Science-Pile
Open Science
Various open science
2,012
Manuel d'étude et de gestion des oiseaux et de leurs habitats en zones côtières. ÆSTUARIA, cultures et développement durable, pp.775, 2012, Paroles des Marais Atlantiques. &#x27E8;hal-00666178&#x27E9;
None
French
Spoken
7,113
11,081
Chacun de ces changements peut augmenter l’intensité de la compétition qui oppose les oiseaux lors de la recherche de proies. Lorsqu’on utilise la mortalité hivernale comme mesure proximale de la réussite, la question essentielle est de savoir si cette mortalité est due à une densité dépendance ou peut le devenir si un habitat est supprimé ou si sa qualité est dégradée (Goss-Custard, 1977 ; 1993 ; 2003 ; Goss-Custard et al., 1995a ; 1995c, 1995d ; 1995e ; Goss-Custard & Durell, 1990) (figure 22a). En cas de faible densité d’oiseaux, les compétiteurs potentiels peuvent s’éviter : la densité peut augmenter sans que la compétition soit intensifiée et sans que la réussite individuelle soit réduite. Mais lorsque la densité atteint un certain niveau, la compétition commence à réduire la réussite individuelle et la mortalité est liée à une densité dépendance. Si, sur un site, on est bien au-dessous de ce point, l’habitat peut être supprimé ou réduit sans que les oiseaux soient affectés. Mais si une perte d’habitats conduit à des densités supérieures au point de densité dépendance, ou si une diminution de la qualité de l’habitat réduit le seuil de densité à partir duquel les phénomènes de densité dépen- d de des oiseaux et de leurs habitats en zones côtières se produisent, le taux de mortalité va augmenter. Si la mortalité sur un site est déjà liée à une densité dépendance, une augmentation de la densité suivant la perte ou la dégradation de l’habitat ne pourra être qu’aggravée. 22 a : forme attendue des fonctions de mortalité dépendante. À faible densité de population, les compétiteurs peuvent s’éviter, et ainsi la densité peut augmenter sans intensification de la compétition et sans que la mortalité soit affectée. Mais à un certain point, quand la densité augmente, la compétition commence à faire augmenter la mortalité et la mortalité va devenir densité dépendance. 22b : comment plusieurs années de recherches sur le taux de mortalité d’une population peuvent échouer à établir la forme de la fonction de mortalité densité dépendance Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 483 22 c : comment la fonction de mortalité densité dépendance peut changer si l’habitat d’une qualité supérieure ou d’une qualité moyenne vient à disparaître Figure 22a, b et c : l’importance de la densité dépendance dans la détermination de la réponse des populations aux changements environnementaux Bien que le concept de densité dépendance soit simple, le tester sur le terrain ne l’est pas. Tout d’abord, il est techniquement très difficile de mesurer le taux de mortalité et la condition corporelle chez des oiseaux non reproducteurs, et bien peu d’études, au cours de ces quarante dernières années, sont parvenues à le faire. Par ailleurs, même si cela est techniquement possible, il est très difficile d’établir la forme de la fonction prenant en compte un éventail suffisant de densités d’oiseaux. La taille de la population d’oiseaux longévives, comme les oiseaux côtiers, varie peu entre les années. Dix ans de recherches difficiles n’ont permis que de disposer d’un petit nombre de points qui s’avèrent insuffisants pour décrire des processus de densité dépendance (figure 22b). Autre difficulté, et la plus fâcheuse, les taux de mortalité à des densités supérieures à celles qui se produisent ordinairement restent inconnus, or, ces très hautes densités sont nécessaires pour réaliser les prédictions. Finalement, le fait d’enlever un habitat peut, par lui-même, changer la fonction densité dépendance. Par exemple, si un habitat de qualité supérieure à la normale est perdu, la mortalité risque de devenir densité dépendance à basse densité de compétiteurs (figure 22c). La fonction densité dépendance n’est pas seulement techniquement difficile à mesurer, il y a en plus des incertitudes sur ce qu’on peut prédire au-delà des données connues. Il est désormais reconnu que l’élément essentiel pour prédire les effets d’un changement environnemental sur les oiseaux non reproducteurs en zone côtière est de déterminer si la densité dépendance hivernale va être affectée ou pas (Sutherland, 2006 ; Sutherland & Norris, 2002). Aussi, le facteur clé est-il de trouver une façon d’établir les fonctions densité dépendance à la fois pour les données ordinaires de l’environnement et en cas de nouvelles conditions créées par la perte d’habitats et/ou par la dégradation ou par d’autres menaces pesant sur les oiseaux. Les conséquences sur la population d’une augmentation faible de la mortalité sur les oiseaux La possibilité de prédire si le taux de mortalité en-dehors de la saison de reproduction va augmenter en raison d’une menace identifiée a été établie par des tests effectués avec un modèle démographique simple sur les limicoles (Durell et al., 1997 ; Goss-Custard et al., 1995a, 1995d ; GossCustard & Durell, 1990). Les simulations montrent, par exemple, que, dans une gamme de taux de mortalité annuelle calculés chez les limicoles (4 12 %), la valeur à long terme n’est pas affectée par une densité dépendance forte ou peu élevée sur les zones de reproduction. Cela s’explique par le fait qu’une augmentation de la mortalité, disons de 3 % à 6 %, signifie une petite augmentation, équivalente à un doublement de la mortalité naturelle annuelle, mais qui peut avoir un grand impact sur l’équilibre numérique de la population, surtout si l’augmentation de la mortalité affecte plus particulièrement les jeunes oiseaux qui sont la base des générations futures (GossCustard & Durell, 1984). Il en résulte que si la priorité de gestion est de maintenir les niveaux des populations de limicoles à leur effectif actuel, même de petites augmentations de la mortalité doivent être évitées. Des modèles simples Nous pouvons maintenant aborder comment des modèles simples peuvent intégrer les variables essentielles et les processus nécessaires pour faire les prédictions quantitatives sur la taille de la population, prédictions qui sont nécessaires pour répondre aux questions relatives à la gestion du littoral. Il est clair depuis longtemps que les effets des changements environnementaux sur les mesures proximales de la réussite (mortalité hors période de reproduction et condition corporelle) peuvent être prédits si les personnes qui pre des décisions sont correctement informées (Goss-Custard, 1977). Parvenir à cet objectif était une longue épreuve mais les décisions devaient être prises par les gestionnaires du littoral. La stratégie adoptée consistait à développer des modèles simples qui peuvent prédire les effets des changements environnementaux sur certaines mesures d’abondance des oiseaux plutôt que sur leur réussite. Ces modèles peuvent fournir des indications alors que les objectifs à long terme du développement de modèles prédictifs de la réussite étaient poursuivis. Deux types de procédures précèdent l’établissement des IBMs (tableau XI pour une comparaison avec IBMs). Tableau XI : comparaison des caractéristiques des modèles d’habitats, rations quotidiennes, déplétion spatiale et modèles basés sur des individus. Le texte entre parenthèses pour les modèles individuels indique où les caractéristiques de WEBTICS diffèrent de nos IBMs. caractéristiques du modèle hypothèses : individus explicitement représentés variations individuelles dans les capacités compétitives incorporées prise de décisions basées sur la théorie du jeu prise par des groupes prise de décision de jeu prise par des individus prise de décisions basées sur le risque paramètres: ressources alimentaires niveau de l’estran temps d’exposition distribution spatiale déplétion par les oiseaux pertes dues par d’autres causes dérangements et risques de prédation paramètres : oiseaux besoins énergétiques quotidiens pertes énergétiques (dérangements, météo) coûts en temps par dérangement, météo coûts énergétiques liés au déplacement entre les taches et les estuaires réponse fonctionnelle compétition due à l’interférence prédictions jours individus densité d’oiseaux effort alimentaire condition corporelle taux de mortalité fonctions densité dépendantes modèles modèles sur les d’association rations quotid’habitats diennes modèles de déplétion spatiale modèles fondés sur les individus non non non non non non oui oui (non) non non oui non non non non non non non oui oui (non) oui non non non non non oui non non oui oui oui oui oui oui oui oui oui oui oui oui oui oui oui non non non non oui oui non non oui oui oui non oui oui oui oui (non) non non non non oui non oui oui non oui non non non non oui oui non non non non oui oui non non non non oui oui oui i Les modèles habitats Dans les modèles habitats (appelés également modèles de distribution des habitats et des espèces), une mesure de l’abondance des oiseaux est liée aux variables environnement dont les valeurs, dans les nouvelles circonstances environnementales pour lesquelles les prédictions ont été requises, peuvent elles-mêmes être prévues. Les modèles habitats sont très largement utilisés en écologie, mais ont des limites bien connues (Garshelis, 2000). Les modèles habitats pour les oiseaux côtiers ont été construits en utilisant des facteurs environnementaux comme variables prédictrices à des échelles spatiales allant du littoral local jusqu’au continent. Ils prédisent plus souvent les effets, sur l’abondance des oiseaux, des pertes d’habitats et/ou des changements dans la composition des sédiments. Par exemple, dans un modèle local, les effectifs de limicoles sur différentes zones des vasières du Wash (Royaume-Uni) sont prédits à partir de la largeur du littoral et de la composition principale des sédiments (Goss-Custard & Yates, 1992 ; Yates & Goss-Custard, 1997 ; Yates, Goss-Custard & Rispin, 1996). Dans un autre modèle, les effectifs d’oiseaux sont prédits au niveau continental par les caractéristiques des estuaires mesurées en utilisant l’imagerie satellitaire (Rehfisch et al., 2000 ; Rehfisch et al., 1997). Bien que relativement faciles à développer, les modèles d’habitats présentent deux limites principales liées au fait que le changement environnemental permet soit le maintien sur place des oiseaux, soit les oblige à se déplacer (Goss-Custard et al., 1995b). Les oiseaux restent s’ils peuvent se nourrir normalement dans cette nouvelle situation où leur densité est plus élevée en raison de la perte d’habitats que dans la situation antérieure. Dans ce cas, les oiseaux peuvent s’agglomérer en groupes de plus forte densité, ce qui voudrait dire que la fonction entre l’abondance des oiseaux et les variables prédictrices serait plus élevée que dans la situation antérieure. Si cela se produit, les équations du modèle ne seraient pas applicables à un nouvel environnement et les prévisions seraient pessimistes. Si, dans l’autre cas envisagé, certains oiseaux quittent la zone, les modèles d’habitat ne sont pas capable de prédire les conséquences pour les effectifs résultant de la redistribution (Goss-Custard, 1977 ; Goss-Custard & Sutherland, 1997), si les oiseaux se redistribuent localement dans le même ou dans des estuaires adjacents ou plus globalement au sein d’une aire géographique plus vaste. À moins que la capacité d’accueil, définie ici par la densité maximale admissible d’oiseaux soit atteinte à l’échelle considérée, ait déjà été atteinte, ces Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 487 modèles vont invariablement surestimer les effets des pertes d’habitats sur les effectifs. Comme il est plus qu’incertain que la capacité d’accueil définie par cette méthode soit atteinte, à une échelle locale (Goss-Custard et al., 2002) ou globalement (G s-Custard, 1993), les prévisions de ces modèles sont pessimistes car une partie des oiseaux déplacés sont capables de s’installer ailleurs et de survivre dans de bonnes conditions. Bien que ces inconvénients soient connus depuis longtemps, cette approche a été développée en raison de la rapidité de son application et de l’absence d’alternatives valables. De plus, les prévisions sont compatibles avec une approche prudente qui était alors, généralement, appliquée par les décideurs de la conservation. Ressources nécessaires chaque jour et modèles spatiaux de déclin des ressources Les modèles fondés sur les besoins quotidiens calculent le nombre de jours. individus qui sont possibles en fonction de la quantité totale de ressources alimentaires disponibles au-dessus d’une densité seuil de ressources alimentaires. Celle-ci est mesurée soit par la densité de nourriture en-dessous de laquelle un oiseau ne peut pas consommer assez de proies pour lui permettre d’acquérir la quantité journalière nécessaire (Nolet et al., 2001), ou par la densité de proies en-dessous de laquelle les oiseaux abandonnent la zone alimentaire (Gill et al., 2001). Comme les oiseaux sont supposés tous identiques, ils meurent de faim ou émigrent simultanément quand la densité de proies passe en dessous du seuil. Les ressources alimentaires variant en abondance, en qualité et/ou en disponibilité entre les différentes zones alimentaires, les modèles fondés sur les besoins quotidiens sont appliqués sur les ressources totales en additionnant la quantité de proies au-dessus de la densité seuil sur toutes les zones alimentaires. Les modèles de déplétion spatiale sont des modèles fondés sur les besoins quotidiens avec une dimension spatiale explicite. Ce raffinement n’est, souvent, pas nécessaire pour atteindre l’objectif du modèle (GossCustard et al., 2003). De tels modèles visent à déterminer comment une population de prédateurs identiques utilise l’une après l’autre les zones alimentaires de différentes abondances (ou qualité) jusqu’à ce que toutes les zones aient été réduites jusqu’au seuil de densité de proies. Les oiseaux s’alimentent d’abord sur les zones les plus profitables jusqu’à ce que leur déplétion réduise leur profitabilité au niveau de la zone alimentaire secondaire, après quoi ils se redistribuent pour se nourrir en effectifs égaux entre les deux zones : cette règle dérive de la théorie du jeu en matière de distribu- gestion des oiseaux et de leurs habitats tion d’une espèce animale (Sutherland & Parker, 1985). Ce processus se poursuit jusqu’à ce que toutes les zones alimentaires aient été utilisées. Quand toutes les zones alimentaires ont été épuisées à la densité seuil de nourriture, tous les oiseaux émigrent ou meurent simultanément et le nombre total de jours.individus peut être calculé. Un grand nombre de modèles basés sur les besoins quotidiens et sur la déplétion spatiale ont été développés pour les limicoles côtiers : Barge à queue noire Limosa limosa (Gill et al., 2001) et Tournepierre Arenaria interpres (Smart & Gill, 2003) et les anatidés (Bernache cravant à ventre pâle Brant bernicla [Percival, Sutherland & Evans, 1996 ; 1998) Bernache cravant à ventre sombre ranta bernicla [Charman, 1979 ; Rowcliffe et al., 1999 ; Rowclifle et al., 2001]). L’attrait des modèles mathématiques sur les besoins alimentaires quotidiens et la déplétion spatiale est leur simplicité par rapport aux IBMs. Cependant, cette simplicité s’accompagne d’importants inconvénients, les principaux étant : - de décider quelles ressources alimentaires inclure dans les modèles, - de déterminer, si un oiseau survit, si cela dépend de son taux de consommation de nourriture plutôt que de la quantité de nourriture présente. Il semblerait satisfaisant de n’inclure dans la prédiction que la nourriture venant de zones alimentaires et une densité de proies plus élevée que la densité seuil mais, dans la zone côtière, cela repose sur des données insuffisantes. Les oiseaux peuvent, en effet, se nourrir dans des zones présentant des densités en dessous du seuil lors des marées montantes et descendantes si d’autres zones plus profitables situées plus bas sur l’estran leur permettent de s’alimenter suffisamment rapidement pour répondre à leurs besoins quotidiens à marée basse. De telles aires peuvent inclure des vasières de haut estran et des habitats terrestres qui sont fréquemment utilisés par les oiseaux côtiers. Ces ressources alimentaires peuvent avoir été exclues du calcul alors que des oiseaux les utilisent réellement. Les modèles de la quantité journalière et les modèles de déplétion spatiale postulent encore que tous les oiseaux survivent jusqu’à ce que la ressource alimentaire (au-dessus de la densité limite et en excluant les pertes liées à d’autres agents de mortalité) est consommée, et ensuite, tous les oiseaux meurent ou émigrent. Cependant, les limicoles, par exemple, appauvrissent rarement leurs ressources alimentaires jusqu’à ce point (Baird et al., 1985 ; Botto et al., 1998 ; Evans et al., 1979 ; Goss-Custard, 1980 ; GossCustard et al., 1977 ; Hall et al., 1990 ; Kneib, 1991 ; Mendon et al. 2007 ; Mercier & McNeil, 1994 ; Quammen, 1984 ; Raffaelli & Milne, 1987 ; Se- Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 489 well, 1996 ; Thrush et al., 1994), même lorsque certains oiseaux meurent en raison d’un manque de ressources (Goss-Custard et al., 2001 ; Stillman et al., 2003). Au contraire, les anatidés épuisent souvent leurs ressources alimentaires (Nolet et al., 2001). La différence entre les limicoles carnivores et les anatidés herbivores est fondée sur l’accessibilité différente des organismes servant de proies (Goss-Custard & Charman, 1976). La plus grande part de la végétation consommée par les anatidés est facilement disponible, et peut ainsi être rapidement broutée à basse densité. Au contraire, les invertébrés proies des limicoles se protègent par leur armure (par exemple, les coquilles épaisses des moules Mytilus edulis) et leur comportement (par exemple, les terriers des Nereis diversicolor). À tout moment, seu une petite fraction de ces proies est disponible (Goss-Custard, 1970). De plus, si une contrainte vient à peser sur la densité à laquelle certains limicoles peuvent s’alimenter avec succès (Stillman et al., 2002), l’interférence entre les oiseaux en alimentation peut aussi conduire à leur mort avant que les ressources alimentaires soient épuisées (Goss-Custard et al., 2001). Toujours selon la logique des modèles de la quantité quotidienne et des modèles de déplétion, le fait que les limicoles ne consomment pas toutes les ressources au-dessus d’un niveau seuil de densité implique qu’il existe une capacité de réserve. Ceci suppose que certains habitats peuvent être supprimés ou réduits en qualité sans affecter les oiseaux. Mais en fait, de nombreux oiseaux commencent à mourir bien avant que le nombre potentiel de jours.oiseaux ou que les ressources alimentaires aient été totalement utilisées. Comme Goss-Custard (1973) le met en évidence, la proportion de ressources alimentaires consommées par les limicoles pendant toute la saison de non reproduction ne peut être utilisée pour évaluer combien les oiseaux sont conditionnés par la nourriture et donc, comment ils peuvent être affectés par une détérioration de leur environnement. Utiliser le nombre de jours.individus potentiels d’un site pour déterminer les règles de gestion peut conduire à sous-estimer sérieusement le risque qu’un changement environnemental, tel que la perte d’un habitat, peut représenter pour les oiseaux. La quantité alimentaire et les modèles de déplétion sont utiles pour prédire, par exemple, quand les oiseaux pourraient se déplacer des zones intertidales vers des zones de cultures d’importance économique (Rowcliffe et al., 1999). Mais en tant que moyen de prédire les conséquences, sur la population, d’un changement environnemental, le calcul du nombre de jours individus que pourrait supporter l’environnement modifié serait le plus généralement une approche contre-productive en matière de préservation. Qu’un oiseau puisse survivre dans de bonnes conditions dépend du fait qu’il obtient de la nourriture à un rythme qui équilibre ses dépenses énergétiques et il n’y a pas de lien évident entre la quantité de nourriture mesurée en nombre de jours.individus et la capacité des oiseaux à trouver cette nourriture. Le rythme d’ingestion des limicoles dépend de plusieurs facteurs, tels que la densité des proies disponibles et leur masse individuelle (Goss-Custard et al., 2006b) et, chez de nombreuses espèces, de la densité de compétiteurs (Stillman et al., 1996 ; Triplet et al., 1999 ; Vahl, 2006 ; Yates et al., 2000). Qu’un rythme d’ingestion donné soit capable d’équilibrer les dépenses énergétiques d’un oiseau dépend aussi du temps disponible pour s’alimenter qui peut dépendre, par exemple, de l’amplitude des marées et des conditions météorologiques. Aucune de ces quantités n’est exprimée dans le nombre de jours.individus dans un sens qui permette à chacun d’estimer, à partir de la quantité, la probabilité qu’un oiseau puisse obtenir ses quantités quotidiennes. Qu’une quantité de nourriture nécessaire pour un oiseau et une journée soit présente ne signifie pas que cet oiseau soit capable de la récolter à un rythme suffisant pour survivre, ce rythme étant déterminé par la durée d’alimentation et par plusieurs autres facteurs qui vont conditionner le taux de consommation. Bien que cela ressemble à une mesure de la taille de la population, le nombre de jours.individus n’est pas équivalent à la taille de la population. Au contraire, il s’agit d’une mesure de l’abondance des ressources, en termes de rations quotidiennes plutôt qu’en termes de biomasse ou d’énergie. Le seul lien entre la taille de la population et le nombre de jours individus est que la taille de la population détermine pour combien de temps va durer le nombre de rations quotidiennes. Le nombre de jours.individus ne peut pas prédire les effets d’une perte d’habitats sur les taux démographiques qui déterminent la taille de la population en premier lieu. En conséquence, on devrait utiliser le terme de rations quotidiennes plutôt que celui de jours.individus. En effet, le terme de rations quotidiennes rend clairement le fait qu’il s’agit d’une mesure de l’abondance de la nourriture et qu’elle n’a pas de chevauchement conceptuel avec une autre mesure de la taille de la population Les modèles fondés sur les individus Après avoir considéré les limites des modèles simples et reconnu le besoin de décrire le comportement de manière plus réaliste, en particulier en admettant les variations individuelles dans le comportement, voyons comment les IBMs pour les oiseaux côtiers ont été développés et utilisés. Reconnaître la nécessité de modèles écologiques individuels pour les oiseaux côtiers Le bénéfice probable d’une approche fondée sur les individus pour prédire les effets des changements environnementaux sur les oiseaux côtiers a été reconnu lorsque la menace potentielle due à la perte d’habitats a été conceptualisée par Goss-Custard (1977). La suppression des vasières intertidales réduit la surface des zones d’alimentation. Si, malgré cela, les oiseaux restent sur un site, comme cela est probable, les densités d’oiseaux sur les zones alimentaires restantes augmenteraient avec comme résultat que l’exploitation du site, fondée sur la densité ou sur l’interférence liée à la compétition alimentaire qui se produisait, serait augmentée. De manière alternative, si la compétition ne se produisait pas encore, la perte d’habitats peut l’introduire. Le problème, cependant, est de définir si la compétition va augmenter ou non et, si cela est le cas, si la réussite des oiseaux va être réduite et pour combien d’oiseaux. Bien que le besoin se faisait sentir, différents paramètres clés nécessaires pour construire les modèles fondés sur les individus étaient, à ce moment-là, inconnus. Construire un modèle individuel, l’exemple de l’Huîtrier pie dans l’estuaire de l’Exe Comme le processus sous-tendu qui va déterminer la mortalité par famine liée à un phénomène densité dépendance est la compétition pour la nourriture, il est supposé que l’étude des variations individuelles dans le comportement d’alimentation et de compétition peut fournir le moyen d’établir les paramètres de mortalité par famine dans des environnements existants ou nouveaux (figure 23). Une étude a été entreprise dès 1976 sur l’Huîtrier pie Haematopus ostralegus se nourrissant préférentiellement de moules Mytilus edulis dans l’estuaire de l’Exe dans le sud-ouest de l’Angleterre. La faible surface de l’estuaire, son accès facile et son isolement relatif des estuaires voisins le rendent approprié à cette étude, tout comme l’est l’Huîtrier pie dont la grande taille et les proies reconnaissables de loin facilitent l’étude des processus compétitifs. En plus d’établir les fonctions d e et de gestion des oiseaux et de leurs habitats en zones côtières densité dépendance, un objectif appliqué particulier était de modéliser les interactions entre les oiseaux et les pêcheries de coquillages : le conflit entre la conservation et les intérêts des pêcheurs de coquillages était, et reste, un des problèmes majeurs des gestionnaires d’espaces littoraux (Goss-Custard et al. 1996b ; Goss-Custard et al., 2004). Figure 23 : comment la variation individuelle sous-tend le taux de mortalité de la population Les figures du bas montrent les distributions hypothétiques de fréquence des taux d’ingestion d’individus dans chacune des quatre classes de taille de population 1-4). Sur ces figures, les lignes verticales montrent le rythme d’ingestion minimum requis pour survivre, et les aires sombres montrent le pourcentage d’oiseaux qui sont incapables d’atteindre ce rythme d’ingestion et qui meurent ou partent du site. La figure du haut montre la relation hypothétique résultante entre la mortalité et /ou l’émigration et la taille de la population d’oiseaux. Les oiseaux qui meurent ou émigrent sont ceux qui ne peuvent pas maintenir leur valeur d’ingestion seuil (adapté de Goss-Custard, 1985). L’objectif était de paramétrer et de tester un IBM en améliorant la connaissance : Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 493 - des réponses comportementales de l’Huîtrier pie à des changements d’abondance et de qualité des proies et à la densité de compétiteurs, - de la façon dont une variation dans l’efficacité de l’alimentation et de la dominance influence le succès de l’alimentation et la survie des individus, - des réponses des oiseaux aux activités humaines, - des variations spatiales et temporelles (intra et inter annuelles) dans l’abondance et la qualité des proies, - du régime alimentaire des oiseaux et le lieu de leur alimentation. Cette recherche et celles entreprises ailleurs en Europe ont été synthétisées par Goss-Custard (1996) et Blomert et al. (1996). Trois versions de l’IBM de ce système ont été publiées : GossCustard et al. (1995a ; 1995c), Clarke & Goss-Custard (1996) et Stillman (2000c). Toutes trois prennent en compte le régime alimentaire et la localisation de la recherche alimentaire de chaque individu et le fait qu’il puisse mourir avant la fin de l’hiver. Les ressources alimentaires sont distribuées en taches distinctes qui diffèrent en densité de proies, en taille et en contenu d’énergie de chaque proie, ainsi qu’en temps d’exposition au rythme tidal. Au cours de chaque journée, chaque oiseau du modèle doit satisfaire ses besoins en énergie nécessaire pour conserver sa température corporelle en s’alimentant sur les zones, au cours des périodes de la journée (jour et nuit) et des périodes tidales où son rythme d’ingestion est le plus élevé. Bien que tous les individus fassent des choix qui utilisent le même principe de maximalisation du rythme d’ingestion, leurs décisions diffèrent car leurs choix dépendent de leurs capacités compétitives individuelles qui dépendent de deux éléments : - le rythme d’ingestion sans interférence qui est le rythme avec lequel un individu se nourrit en l’absence de compétition créant une interférence et qui mesure son efficacité basique à s’alimenter, - la sensibilité aux interférences qui mesure combien l’interférence réduit le rythme d’ingestion d’un individu lorsque la densité d’oiseaux augmente. Cette sensibilité dépend de son rang social. Le modèle est fondé sur la théorie du jeu dans lequel chaque individu répond aux décisions prises par les compétiteurs en décidant quand, où et de quoi il va se nourrir. La survie est déterminée par l’équilibre entre les coûts énergétiques quotidiens et la consommation. Les coûts énergétiques dépendent des coûts métaboliques liés à la température. La consommation énergétique dépend du temps disponible pour s’alimenter, par exemple, le temps d’exposition des vasières, et du rythme d’ingestion pendant la période d’alimentation, qui dépend, à son tour, de la teneur énergétique des proies et de la sensibilité des individus aux interférences. Quand la consommation énergétique quotidienne est supérieure aux dépenses, les individus stockent de l’énergie ou maintiennent leurs réserves si un niveau maximum a déjà été atteint. Quand la dépense énergétique quotidienne est supérieure à la consommation d’énergie, les individus puisent sur leurs réserves. Si les réserves d’un individu tombent à zéro, il meurt, ce qui est la seule source de mortalité dans les versions initiales du modèle, et la principale cause de mortalité hivernale de l’Huîtrier pie dans la nature (Goss-Custard et al., 1996a). Le modèle adapte les quantités alimentaires disponibles chaque jour afin d’intégrer les changements saisonniers dus : - à la diminution tout au long de l’hiver de la masse corporelle de chaque proie, - à la diminution de la densité de proies occasionnée par les oiseaux euxmêmes, par d’autres causes de mortalité, telles que les tempêtes, et par la pêche à pied, si celle-ci se produit. Les oiseaux dérangés par les pêcheurs qui ramassent les coques à la main et par d’autres sources de dérangements, tels que les promeneurs, dépensent du temps et de l’énergie afin d’occuper un autre gisement de coquilla non dérangé. Si une zone alimentaire est supprimée, soit définitivement par la surpêche ou par toute autre forme de perte d’habitats, ou temporairement par des dérangements, les oiseaux qui s’y alimentaient choisissent de s’alimenter sur une autre zone. Ils le font en utilisant le même type de décision fondée sur la maximalisation de la réussite que précédemment. Comme ces règles sont liées au concept le plus basique de l’évolution, les oiseaux modèles sont censés réagir à un changement de leur environnement alimentaire comme les oiseaux réels. Ceci est la raison fondamentale pour laquelle les IBM, dans lesquels les animaux qui maximalisent les décisions relatives à leur réussite, sont censés fournir une bonne base pour l’extrapolation dans un nouvel environnement alimentaire. Pour construire le modèle, une approche cumulative a été adoptée. Le processus et les paramètres nécessaires pour faire le modèle reprennent les taux de mortalité observés dans la nature sur cinq années témoins (1976/1977 - 1980/1981). Ils étaient inclus étape par étape, dans une séquence qui, d’après ce que avait été supposé, avait toutes les chances de succès. Aussi, la première version était plutôt simple et n’incluait pas certains processus importants tels que se nourrir dans les champs à marée haute (Goss-Custard et al., 1995a). Ce n’est que quand de tels paramètres environnementaux ont été incorporés que le modèle a pu prédire les taux de mortalité hivernaux observés. Ceci n’est pas surprenant car les caractéristiques naturelles font partie de la stratégie de survie des animaux. Une fois que le modèle a été capable de reproduire correctement le taux de mortalité moyen observé sur les cinq années de calibrage, il a été utilisé pour générer une fonction densité dépendance. Ceci a été fait en lançant des simulations avec des effectifs différents d’Huîtriers-pies, en utilisant, pour les quantités de nourriture disponibles, l’abondance et la qualité des moules enregistrées pendant une étude de huit ans sur les bancs de moules (McGrorty et al., 1990 ; McGrorty & Goss-Custard, 1991 ; 1993 ; 1995 ; Stillman et al., 2000d). Le modèle prédit que la mortalité serait densité dépendance (figure 24). 24a : comparaisons interannuelles Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 496 24 b : comparaisons entre différentes classes de densités de populations Figure 24 : taux de mortalité prédits et observés des Huîtriers pies adultes dans l’estuaire de l’Exe sur 15 hivers 1976-1991 Les prédictions étaient fondées sur : - les effectifs observés d’Huîtriers pies présents en septembre de chaque année (symboles pleins et barres noires), - la densité de moules présentes en septembre de chaque année (cercles dans 4a, barres blanches de gauche [15-21] et centrale [22-28] dans 4b ou, pendant les hivers pendant lesquels il n’y a pas de mesures, densités moyennes de moules en septembre pour toutes les autres années (carrés en 4a, barre droite [29+] en 4b). Les valeurs en 4b sont la moyenne et l’écart-type. Les années de développement du modèle sont 1976-1980. Adapté de Stillman et al. (2000c). Au moment où le modèle faisait cette prédiction, aucun effet densité dépendance pendant la saison hivernale n’avait été démontré chez une espèce de limicole. Néanmoins, cette prédiction a été confirmée par six estimations de taux de mortalité hivernale sur le terrain (figure 24). Bien que les conditions météorologiques de l’hiver affectent significativement la survie hivernale, les données fournissent une forte évidence que la mortalité hivernale des Huîtriers pies est réellement due à une densité dépendance (Durell et al., 2000 ; 2001a ; 2001b). De plus, le modèle prédit que la mortalité de- Manuel d’étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 497 vient densité dépendance aux densités approximatives auxquelles celle-ci se produit réellement et que la mortalité augmente de manière similaire au rythme observé. Cette concordance quantitative entre la prédiction et l’observation, en lien avec le fait que la densité dépendance était prédite par le modèle avant que sa présence dans la nature ait été démontrée, fournit une validation solide de l’approche et accrédite l’idée que son développement pourrait être entrepris sur des bases solides. Construire un modèle fondé sur le comportement individuel plus flexible Le principe – selon lequel les IBMs ont été construits – que les oiseaux s’alimentant tentent de maximiser leur réussite s’applique à d’autres systèmes, et les problèmes qu’ils peuvent résoudre se produisent partout. Ceci a suscité le développement d’un modèle plus flexible, MORPH, fondé sur les mêmes principes mais applicable à un plus grand nombre d’espèces et de problèmes (Stillman, 2008a). Par exemple, les modèles précédents contenaient des hypothèses spécifiques aux limicoles (telles que le cycle tidal conditionne la disponibilité en taches alimentaires), et des hypothèses seulement applicables à certaines zones côtières. MORPH dépasse ces limites et constitue juste un cadre de travail pour représenter les systèmes consommateurs de ressources. MORPH peut être paramétré très simplement pour analyser les propriétés de systèmes hypothétiques simples, ou peut être paramétré en utilisant des données empiriques détaillées pour simuler des systèmes spécifiques. MORPH est conçu pour prédire comment les changements environnementaux en alimentation peuvent affecter les populations d’animaux. Les hypothèses clés sont que les animaux se comportent afin de maximiser leur réussite perceptible, par exemple, en termes de mortalité par famine ou par risque de prédation, mais cette réussite perçue peut ne pas être toujours positivement liée aux chances réelles de survie et de reproduction, par exemple, les animaux peuvent prendre des décisions sub-optimales (Battin, 2004 ; Kokko & López-Sepulcre, 2006). Ces hypothèses permettent de construire un modèle décisionnel plutôt que d’utiliser les modèles précédents qui ne retenaient comme seule hypothèse que les animaux maximalisent toujours leur rythme d’assimilation d’énergie. MORPH offre un cadre de travail de base pour décrire la physiologie des animaux et leur comportement de recherche alimentaire en tenant compte de la distribution et de l’abondance des ressources. Ceci est, de nouveau, une approche plus flexible que les modèles précédents, qui ne contiennent que des éléments spécifiques Stillman (2008a) décrit entièrement MORPH en en fournissant le logiciel et un guide de l’utilisateur. Bien que MORPH ait été appliqué principalement aux limicoles (Caldow et al., 2007a ; Durell et al., 2006 ; 2007 ; Stillman et al., 2005a ; 2005b), il a également été utilisé pour les anatidés herbivores (Stillman et al., 2005a ; 2005b) et les canards plongeurs (Kaiser et al., 2005), ce qui aurait été impossible avec les modèles précédents en raison des hypothèses spécifiques aux limicoles. MORPH a également été appliqué aux poissons se nourrissant d’invertébrés, aux passereaux granivores et aux cygnes consommateurs de la végétation dans les cours d’eau. MORPH est actuellement restreint aux animaux hors période de reproduction, mais pourrait être étendu à la saison de reproduction en ajoutant deux éléments clés : - s’alimenter à partir d’un seul site (par exemple, un nid ou un terrier), - évaluer la réussite à partir de la destinée d’autres individus (par exemple, les partenaires ou les jeunes). MORPH est actuellement restreint à une seule génération ou à une partie d’une génération, et ne peut intégrer l’évolution du comportement ou les règles de décision qui peuvent se produire entre les générations. Cependant, l’extension de MORPH à la saison de reproduction devrait rendre possible de telles simulations multi-générationnelles. Tester les prédictions des modèles fondés sur le comportement individuel des oiseaux côtiers Les preneurs de décisions doivent savoir si les prédictions des modèles fournissent des arguments fiables aux règlements qu’ils doivent adopter. Des efforts ont été faits pour tester les prédictions des IBMs relatifs aux oiseaux côtiers (tableau XII en partie pour des raisons scientifiques, mais aussi pour informer les décisionnaires de la fiabilité avec laquelle ils peuvent utiliser les prédictions. Les IBMs produisent des prédictions multiples à des échelles spatiales et temporelles différentes. Cette approche teste simultanément différentes prédictions du modèle afin d’évaluer l’exactitude avec laquelle le modèle représente les processus observés et les patrons et comment, d’un point de vue structurel, le modèle est similaire à la réalité. Ces patrons ont été divisés en deux ensembles. Le premier permet de savoir si le modèle représente correctement les différents comportements des oiseaux réels. Parce que les prédictions liées à la réussite sont grandement dérivées des prises de décisions par des oiseaux modélisés cherchant à maximiser leur réussite, il est absolument nécessaire qu’elles soient correctement représentées afin de savoir si le modèle prédit correctement les mesures de réussite dérivées du comportement sous-jacent. Tableau XII : résumé des modèles individuels pour les oiseaux côtiers Les colonnes « tests » indiquent si l’effort alimentaire prédit (feed), le choix alimentaire (diet), la distribution (dist), la condition corporelle (cond) ou la mortalité (mort) étaient comparés avec les observations. Légende : - = pas de comparaison faite P = prédictions confirmées par les observations × = prédictions Non confirmées par les observations P× = certaines prédictions confirmées par les observations, d’autres non confirmées site espèces problèmes feed Burry Inlet, UK Huîtrier pie Haematopus ostrale- pêche des co- P gus, Bécasseau maubèche Calidris quillages, qualité canutus du site Bahia de Cadiz, Bécasseau minute Calidris minu- abandon de P× Spain ta, Gravelot à collier interrompu salines, pisciculCharadrius alexandrinus, Bécas- tures, pêche des seau sanderling Calidris alba, coquillages, Grand Gravelot Charadrius hiati- dérangements, cula, Chevalier gambette Tringa création totanus, Pluvier argenté Pluvialis d’habitats squatarola, Barge à queue noire Limosa limosa, Barge rousse Limosa lapponica, Huîtrier pie Caerlaverock, Bernache nonnette Branta leucop- changement UK sis d’habitats Cardiff Bay, UK Gambette perte d’habitats - diet P tests dist P P× P - - (Stillman et al., 2005a) - P P - - - - P Dee estuary, UK Maubèche, Huîtrier pie pêche à pied - - - - - Exe estuary, UK Huîtrier pie pêche à pied P P P P P Exe estuary, UK Bécasseau variable Calidris alpi- dérangements, na, Pluvier argenté, Barge à queue qualité du site, noire, Barge rousse, Huîtrier pie, élévation niveau Courlis cendré Numenius arquata de la mer - P - - (Pettifor et al., 2000) (Goss-Custard et al., 2005) (West et al., 2005b) (Stillman et al., 2000c, 2001) (Durell et al., 2007) mort r P ( al. ) Humber estuary, Bécasseau variable, grand Grave- Elévation niveau UK lot, Bécasseau maubèche, Cheva- de la mer, déveliet gambette, Pluvier argenté, loppement porBarge à queue noire, Barge tuaire, perte rousse, Huîtrier pie, Courlis cen- d’habitats, qualidré té du site Liverpool bay, Macreuse noire Melanitta nigra éoliennes, pertes UK d’habitats, dérangements Menai Straits, Huîtrier pie gestion de la P UK pêche à pied Poole Harbour, Bécasseau variable, Chevalier Elévation du UK gambette, Barge à queue noire, niveau des mers, Huîtrier pie, Courlis cendré qualité du site Poole Harbour, Huîtrier pie pêche à pied, UK espèces invasives baie de Seine, Bécasseau variable, Huîtrier pie, développement France Courlis cendré portuaire, création d’habitats Solway Firth, Bécasseau maubèche, Huîtrier pie pêche à pied UK P baie de Somme, Bécasseau variable, Huîtrier pie, chasse ; France Courlis cendré pêche à pied, sédimentation, qualité du site, développement de la Spartinet Southampton Bécasseau variable, grand Grave- développement Water, UK lot, Tournepierre Arenaria in- portuaire, terpres, Chevalier gambette, perte d’habitats, Pluvier argenté, Barge à queue qualité du site noire, Huîtrier pie, Courlis cendré Strangford Huîtrier pie pêche à pied Lough, UK Wash, UK Huîtrier pie pêche à pied - P P - - (Stillman et al., 2005c) - P - - (Kaiser et al., 2005) - P× - - - P× - - (Caldow et al., 2004) (Durell et al 2006) P P - - (Caldow et al., 2007a) P P - - (Durell et al., 2005) - - - - P× - - (Stillman, 2008b) (Durell et al., 2008; GossCustard et al., 2006a) P P - - (Wood, 2007) - - - - - - - P Wash, UK - P - - - (West et al., 2002b) (Stillman et al., 2003) (West et al., 2007) P P  P - - P de Bernache cra vant Branta bernicla changements agricoles , perte d’ habitat s, chasse, dérangements P× P× P P Wash, UK Europe l’Ouest Bécasseau variable, Bécasseau qualité du site maubèche, Chevalier gambette, Pluvier argenté, Barge à queue noire, Huîtrier pie, Courlis cendré Eider Somateria mollissima pêche à pied Manuel d’ étude et de gestion des oiseaux et de leurs habitats en zones côtières, 2012 501 (Caldow et al., 2007b ) ( Stillman et al., 2005a) Comportement Les tests des prédictions des modèles comportementaux des Huîtriers pies et des autres limicoles ont été publiés à partir du modèle original de l’Huîtrier pie dans l’estuaire de l’Exe (Goss-Custard et al., 1995c ; Stillman et al., 2000c) et des modèles et sous-modèles suivants (Caldow et al., 2004 ; Durell et al., 2005 ; Pettifor et al., 2000 ; Stillman et al., 2003 ; West et al., 2003). Dans le Burry Inlet (Pays de Galles), les Huîtriers pies s’alimentent à marée basse, soit sur les gisements de coques Cerastoderma edule, soit sur les bancs établis de longue date de moules matures ou encore sur des taches éphémères de jeunes moules attachées à des coques sorties du sable lorsque leur propre densité est trop forte (phénomène appelé « mussel crumble »). L’IBM limicoles prédit la distribution observée des Huîtriers pies sur ces trois types de taches (West et al., 2003) (figure 25). Sans interférence, tous les oiseaux pourraient se nourrir sur les bancs de moules mâtures car ils fournissent les rythmes d’ingestion les plus élevés en l’absence d’interférence. Comme les bancs matures de moules occupent plutôt une petite partie de l’ensemble de l’estuaire, le modèle doit représenter correctement les interférences qui empêchent tous les oiseaux de s’alimenter sur ces bancs. Le modèle pourrait très facilement faire une prédiction relativement pauvre, mais ce n’est pas le cas. Figure 25 : comparaison entre les prédictions du modèle et la distribution observée des Huîtriers pies sur les trois sources de proies principales (coques, moules et amas de moules) dans le Burry Inlet, Royaume-Uni Les barres montre le pourcentage moyen (+ erreur standard) des oiseaux s’alimentant sur chaque type de ressources (adapté de West et al. 2003). Sur une moyenne de huit ans dans l’estuaire de l’Exe, 12,1 % des moules des classes de taille consommées par les Huîtriers pies disparaissent au cours de l’hiver, et les expériences d’exclos confirment que la plupart ont été prises par les Huîtriers pies (Goss-Custard et al., 2001). Le modèle prédit que juste un peu moins de 12 % devraient être pris par les Huîtriers pies, soit une valeur très proche de la valeur réelle, bien qu’il existe de nombreuses opportunités pour que le modèle ne permette pas une telle précision dans la réalité. En effet, en dehors de la possibilité de prédire de manière précise les besoins énergétiques des Huîtriers pies, à la fois le modèle et les oiseaux réels consomment beaucoup d’autres proies comme les palourdes Scrobicularia plana dans la zone intertidale, et les vers de terre Lumbricus spp. dans les champs à marée haute et basse. Que le modèle prédise avec autant de précision la mortalité infligée aux moules par les Huîtriers pies suggère qu’il représente bien le processus de consommation de moules.
32,566
8d3d7985bfe4960bedd08eee698f2602_1
French-Science-Pile
Open Science
Various open science
2,018
Le blogage ou l’arme de second rang des outsiders du champ journalistique. Le cas des dessinateurs de presse
None
French
Spoken
7,582
12,528
Varia Le blogage ou l’arme de second rang des outsiders du champ journalistique Le cas des dessinateurs de presse Marie Neihouser PhD, Post-doctorante Groupe de recherche en communication politique Université Laval Canada [email protected] i les recherches sur les effets d’internet sur le travail journalistique sont nombreuses, on ne compte en revanche que très peu d’études sur l’effet d’internet sur les dessinateurs de presse. En effet, nombre d’études interrogent l’impact d’internet sur le journalisme (Dagiral et Parasie, 2010 ; Pélissier, 2003), que ce soit en termes de sociologie des journalistes (Neveu, 2009) et d’analyse de leurs conditions de travail (Pilmis, 2014), de production et de contenu (Boczkowski, 2010), ou encore en termes d’économie des médias (Rebillard et Smyrnaïos, 2010 ; Ouakrat, Beuscart et Mellet, 2010). D’autres travaux s’intéressent aussi à l’évolution de la position des journalistes dans la nouvelle économie de la presse (Pilmis, 2013) ou encore au renouvellement de leurs méthodes de travail (Cabrolié, 2010). S En revanche, on ne trouve que peu de travaux sur l’impact d’internet sur les dessinateurs de presse (à l’exception de Doizy, 2010 ; Rouquette, 2009). Le statut même de dessinateur de presse est relativement peu lisible : a-t-on affaire à des journalistes (puisque certains d’entre eux possèdent la carte de presse) ? À des artistes plasticiens (ils sont dans certains cas considérés comme tels dans les nomenclatures INSEE1) ? Ce manque de lisibilité ajouté à un certain déclassement des dessinateurs par rapport aux jour- Pour citer cet article, to quote this article, para citar este artigo : Marie Neihouser, « Le blogage ou l’arme de second rang des outsiders du champ journalistique " », Sur le journalisme, About journalism, Sobre jornalismo [En ligne, online], Vol 7, n°1 - 2018, 15 juin June 15 - 15 de junho. URL : http://www.surlejournalisme.com/rev 130 Marie Neihouser - Le blogage ou l’arme de second rang des outsiders du champ journalistique nalistes rédacteurs pourrait expliquer le peu d’intérêt que le sujet suscite. Surtout à une époque où l’image dans les médias est essentiellement portée par la photographie et la vidéo. En réalité, cet état de fait s’explique surtout parce que dans leur grande majorité, les travaux sur le dessin de presse et internet sont le fait soit d’historiens, soit de chercheurs en linguistique et sciences de l’information. Pour ces chercheurs, les perspectives de recherche les plus prometteuses liant dessin de presse et internet consistent alors, selon le linguiste Marc Bonhomme, en « l’étude des sites spécialisés dans l’image satirique » et donc dans l’étude de contenu d’une part, et « en l’analyse de la grande interactivité insufflée à la communication caricaturale par les blogs et les forums commentant les dessins de l’actualité politique », c’est-à-dire en l’étude du renouvellement de la relation auteur-lecteur (Bonhomme, 2010) (et non spécifiquement des changements dans les pratiques professionnelles des journalistes), d’autre part. Jusque-là, la littérature sur le dessin de presse s’est donc majoritairement orientée autour de deux axes : une approche essentiellement d’ordre historique et une approche plus en lien avec celle des sciences de l’information et de la communication. Cette seconde approche délaisse le journaliste et son travail quotidien pour s’interroger sur les « constituants plastiques et thématiques » du dessin de presse (Houbedine-Gravaud et Pozas, 2006), son contenu, et l’interprétation que l’on peut en faire. C’est ainsi que Nicole Everaert-Desmedt tente d’interpréter un dessin de Plantu (EveraertDesmedt, 1994), que Nelly Feuerhahn s’intéresse à l’humour dans le dessin de presse (Feuerhahn, 1992), Franck Malin à son style (Malin, 1995), ou encore que Didier Lefort étudie le dessin de presse de l’extrême-droite (Lefort, 1991). Carmela Lettieri, pour sa part, s’empare d’une caricature évoquant le financement occulte du parti communiste italien (PCI) par le KGB et du conflit qui s’en est suivi entre le premier ministre M. D’Alema et G. Forattini, le dessinateur de presse, pour tenter d’expliquer en quoi cet épisode est révélateur des changements de la société italienne et pour mettre en valeur un nouvel aspect – essentiel à ses yeux –, du métier politique, à savoir l’auto-ironie dont doivent pouvoir faire preuve les personnalités politiques (Lettieri, 2001). On le constate, ces questionnements restent très éloignés de toute considération sociologique des dessinateurs de presse ou encore avec leurs pratiques professionnelles. En ce qui concerne les travaux s’inscrivant dans l’approche historique, on constate que la majorité d’entre eux consiste en l’étude de productions propres à une époque. L’objectif est alors de retra- cer, à travers l’analyse des dessins de presse ou des caricatures, les relations entretenues par le dirigeant (Roi, président de la République, gouvernement), la presse, et le peuple à un moment donné. Dans son ouvrage Les rois de papier. La caricature de Henri III à Louis XVI (Duprat, 2002), Annie Duprat propose par exemple un retour sur la production pamphlétaire et les estampes aux 16e et 18e siècles. À travers les figures des rois Henri III et Louis XVI, l’auteur revient sur la violence s’exprimant à l’égard du souverain de l’époque dans la presse, que ce soit par le verbe ou par l’image. Dans la même optique, dans La Républicature (Tillier, 1997), Bernard Tillier s’intéresse à la manière dont les caricaturistes de la fin du 19e et du début du 20e ont recours au vocable du corps, notamment, pour personnifier et dénoncer certains problèmes de société. Plus rares sont les travaux qui utilisent l’approche historique pour contribuer à une sociologie des médias. Étudiant une période plus récente, Colin Seymour-Ure s’intéresse dans son article « Le dessin satirique dans la presse britannique contemporaine » (Seymour-Ure, 1996) à deux tendances susceptibles d’affecter durablement le dessin de presse selon lui : les mutations qui s’opèrent au sein des médias et les effets de la télévision d’une part, les mutations de la culture politique d’autre part. L’auteur affirme que « les dessinateurs s’épanouissent aux époques d’irrespect ». Néanmoins, Christian Delporte est peutêtre celui qui, dans sa thèse de doctorat intitulée Dessinateurs de presse et dessin politique en France des années 1920 à la Libération (Delporte, 1991) cherche le plus à ancrer l’histoire des dessinateurs de presse dans celle des journalistes et du journalisme. Il montre comment la période de l’entre-deux guerres constitue une période charnière pour le dessin de presse, dans la mesure où les dessinateurs se voient obligés d’adapter leur travail à la « grande presse ». Dès lors, toute une profession s’en trouve bouleversée : d’artistes, les dessinateurs deviennent de réels journalistes. Nous nous intéressons pour notre part à une nouvelle révolution dans le monde du dessin de presse : l’arrivée d’internet dans les pratiques professionnelles. Force est en effet de constater que l’espace du dessin de presse fournit un vaste terrain d’enquête au sociologue intéressé par le travail journalistique, surtout à un moment où il subit deux épreuves concomitantes : la crise de la presse (Revue Projet, 2006) d’un côté, et la montée en puissance d’internet dans le travail des journalistes (Jeanne-Perrier, Smyrnaïos et Diaz, 2015) de l’autre. Nous proposons en conséquence dans cet article d’étudier l’usage que les dessinateurs de presse font de leurs blogs alors que leur profession semble de plus en plus fragilisée. Cela nous amène à poser la question suivante : Sur le journalisme - About journalism - Sobre jornalismo - Vol 7, n°1 - 2018 131 le blog permet-il aux dessinateurs – et notamment à ceux qui sont dominés dans le champ journalistique – d’améliorer sensiblement leurs trajectoires et positions professionnelles ? Nous montrons que le blog devient pour les dessinateurs à la fois un nouvel instrument de promotion de leur travail et un outil leur permettant de s’intégrer dans leur communauté professionnelle. Le blogage reste cependant une arme de second rang pour cette population, qui ne lui permet pas de renverser les hiérarchies établies dans l’espace journalistique. Afin de mener notre étude, nous avons isolé les dessinateurs de presse parmi un panel de 3 509 blogueurs politiques constitué dans le cadre de notre travail doctoral et réputé exhaustif au 6 mai 2 012 (Neihouser, 2016). Pour être retenu dans le panel, un site internet devait remplir différents critères (Neihouser, 2016) : • • • avoir été actualisé depuis moins de 6 mois au 6 mai 2 012 être présenté comme un blog individuel être écrit en français et traiter de la politique française dans la majorité des billets 3 509 blogs ont ainsi été répertoriés. Parmi eux, nous avons isolé ceux tenus par les dessinateurs de presse et les caricaturistes professionnels. 83 sites répondant à ces critères ont été répertoriés manuellement. Nous avons ensuite cherché à situer ces blogs et leurs auteurs dans l’espace des blogs politiques et dans l’espace du dessin de presse. Nous avons ainsi qualifié, toujours manuellement, après observation directe des blogs, chacun des membres du panel. Nous avons alors relevé les caractéristiques sociodémographiques de chaque blogueur : son sexe, son âge, son niveau d’étude, son CV, ses éventuelles publications d’albums ou de dessins dans les médias offline et online, etc. Nous avons de même collecté un ensemble de données attachées à chaque blog et à l’activité numérique de chaque blogueur (audience, date de création, présence sur les réseaux sociaux, intégration aux réseaux de blogs de dessinateurs, etc.). Ces premières données, si elles ont l’avantage de ne pas avoir été suscitées par le chercheur (Bourdieu, 1984), présentent l’inconvénient de ne pas être complètes. En effet, seuls les éléments que le blogueur a bien voulu faire figurer en ligne ont pu être recueillis. C’est pourquoi nous avons dans un second temps envoyé un questionnaire électronique à l’ensemble des blogueurs dessinateurs. Les réponses au questionnaire nous ont permis de compléter nos données « observées » par des données « déclarées » par les blogueurs dessinateurs. Nous avons obtenu 13 réponses, soit 15.7 % du panel total de dessina- 132 teurs. Ce faible nombre de réponses nous empêche de traiter les données recueillies via questionnaire de manière statistique. Pourtant, nous avons tenu à présenter quelques-unes de ces données dans cet article : en effet, elles nous permettent d’enrichir notre analyse et de lancer des pistes de réflexion via une approche plus qualitative. De plus, on peut grâce à elles procéder à des comparaisons entre l’ensemble du panel et les répondants. Ces derniers sont d’ailleurs globalement représentatifs (en termes d’âge, de sexe, de lieu de résidence, de situation maritale, de revenu, etc.) de l’ensemble des dessinateurs du panel2. Seule différence notable, les répondants sont plus nombreux à avoir suivi des études supérieures équivalentes à Bac+5 (38.5 % contre 16.2 % parmi l’ensemble des dessinateurs). Le même travail d’enquête a par ailleurs été effectué pour l’ensemble des blogueurs politiques. On est ainsi en mesure de comparer la population des dessinateurs à celle de l’ensemble des blogueurs politiques. En dernier lieu, afin de pouvoir confronter l’ensemble de ces données à l’expérience plus subjective d’un de nos enquêtés, nous avons mené un entretien avec un dessinateur plutôt dominé dans son champ professionnel3. Il est dès lors plus facile d’analyser le blogage des dessinateurs et ses caractéristiques. Après être revenus plus en détails sur la sociologie des dessinateurs de presse et avoir caractérisé leur blogage, nous verrons donc comment cette population de journalistes se saisit des blogs pour en faire de nouveaux instruments de promotion de leur travail, pour construire une véritable communauté professionnelle, avant de montrer que, malgré tout, les blogs sont loin de pouvoir répondre à toutes les difficultés rencontrées par la profession. Sociologie des dessinateurs de presse Les dessinateurs de presse blogueurs sont très majoritairement des hommes (92.7 %). Ce résultat n’est pas étonnant pour une profession traditionnellement perçue comme très masculine4. L’âge moyen de notre panel est de 50 ans. Tous possèdent au moins un Bac général, la grande majorité ayant un diplôme au minimum équivalent à un niveau Bac+3 (80.8 %). Plus de 60 % des dessinateurs vivent par ailleurs dans une ville de plus de 100 000 habitants et quasiment un quart vivent à Paris. En revanche, ils sont peu nombreux à vivre dans des villages de moins de 2 000 habitants (10.5 %). D’un point de vue politique et socio-culturel, ils sont en majorité de gauche : 80.7 % d’entre eux tiennent sur leur blog des propos clairement de gauche (sur des thématiques politiques, économiques, sociales, sociétales, etc.), voire d’extrême-gauche ou en faveur de l’écologie. Parmi les répondants au questionnaire, la Marie Neihouser - Le blogage ou l’arme de second rang des outsiders du champ journalistique plupart (12/13) déclarent sans surprise s’intéresser « assez » ou « beaucoup » à la politique. Si aucun n’est militant d’un parti politique, beaucoup de dessinateurs de presse blogueurs ont une relation active à la politique. Ainsi, 5/13 ont déjà été syndiqués, 7/13 ont déjà manifesté, et 6/13 ont déjà fait grève. De plus, 10/13 déclarent que leur entourage se situe plutôt à gauche ou très à gauche. De ce point de vue, ils présentent donc un profil relativement similaire à celui de l’ensemble des journalistes5. Mais ce qui nous intéresse particulièrement ici, c’est leur position non seulement au sein de la société, mais surtout dans leur champ professionnel, le champ journalistique. Le revenu mensuel peut être un indicateur de la situation économique et sociale d’un individu. Nos résultats démontrent que le revenu « médian » des dessinateurs s’inscrit dans une fourchette comprise entre 1 900 et 2 500 euros mensuels, ce qui les positionne donc dans la classe moyenne/moyenne-supérieure. Néanmoins, on constate de forts écarts entre les différents dessinateurs (tableau I) : Tableau I : Revenus mensuels des blogueurs dessinateurs de presse (n=13) qu’il n’en est pas de même lorsqu’on s’intéresse à son niveau économique. D’autre part, on observe que les dessinateurs ne sont pas des salariés (de journaux par exemple), mais que la plupart d’entre 6 eux sont des travailleurs indépendants , ce qui peut en partie expliquer cette hétérogénéité de revenus. Leurs relations aux titres pour lesquels ils travaillent sont donc relativement lâches, et la situation économique de certains d’entre eux d’autant plus précaire. 7 dessinateurs sur les 13 répondants affirment ainsi avoir connu au moins une période de chômage au cours de leur existence. Ce premier positionnement socio-économique peut être complété, au-delà du revenu et du statut professionnel, par des indications quant au niveau de reconnaissance dont bénéficie chaque dessinateur dans son champ professionnel. Nous considérons ici que la position hiérarchique du média le plus reconnu dans lequel chaque dessinateur a publié est un indicateur relative7. ment fiable de ce niveau de reconnaissance En effet, plus un dessinateur est reconnu dans son milieu professionnel, plus il a de chances qu’un média important fasse appel à ses services. Le tableau II ci-dessous indique ainsi la position hiérarchique du média le plus reconnu dans lequel chaque dessinateur a publié. Afin d’obtenir cette information, nous avons tapé le nom (ou le pseudo) de chaque dessinateur dans la barre de recherche du moteur Google. Nous avons alors observé dans les 5 8 premières pages, les réponses obtenues pour chacun d’entre eux et enregistré le nom de tous les médias dans lesquels ils avaient déjà publié. Si aucun média n’était trouvé, le blogueur rentrait dans la catégorie « pas de lien » du tableau. En cas de réponse inverse, nous avons 9 opté pour une distinction somme toute assez large entre 10 publication dans un « grand média » et publication dans 11. un média « autre » Revenus mensuels Nombre de dessinateurs répondants Moins de 750 euros 5 750-1 100 euros 0 1 100-1 300 euros 0 1 300-1 500 euros 4 1 500-1 900 euros 2 1 900-2 500 euros 1 2 500-3 100 euros 0 3 100-3 700 euros 0 Type de média % de blogueurs dessinateurs (n=83) Plus de 3 700 1 Grand média 14.5 Total 13 Autre média 37.4 Les dessinateurs ayant répondu au questionnaire sont ainsi 5/13 à gagner moins de 750 euros mensuels. À l’inverse, un seul dessinateur affirme gagner plus de 3 700 euros mensuels. La majorité (7/13) gagne entre 1 300 et 2 500 euros par mois. Pas de lien 48.2 Total 100 Tableau II : Type de média dans lequel ils ont publié (en %) Ce qui attire l’attention ici, c’est l’hétérogénéité des revenus et, on le présume, des conditions de vie qui en découlent. Alors que cette population apparaissait relativement homogène en matière de niveau d’étude, d’orientation et d’intérêt pour la politique, – laissant par-là entrevoir une population au capital culturel relativement élevé –, on constate On constate ainsi que seuls 14.5 % des dessinateurs du panel ont déjà publié dans un « grand média ». Cet état de fait témoigne de la situation difficile de cette population (que ce soit pour des raisons économiques, éditoriales, etc.) dans le champ journalistique. Plus encore, pour la moitié des dessinateurs, on ne trouve en ligne aucun lien pointant vers un média (quel qu’il soit) dans lequel ils auraient publié, soit parce que les publications sont trop à la Sur le journalisme - About journalism - Sobre jornalismo - Vol 7, n°1 - 2018 133 marge, soit parce que les médias pour lesquels ils travaillent sont trop petits. En définitive, on observe donc que malgré un capital culturel relativement élevé, la population des dessinateurs de presse jouit de conditions économiques très hétérogènes. Leurs travaux ne sont par ailleurs que peu présentés dans les plus grands médias, reléguant l’ensemble de la profession dans une position plutôt dominée du champ journalistique. Caractérisation du blogage des dessinateurs Avant d’analyser son impact sur leur position dans le champ journalistique, nous tentons dans cette partie de saisir plus finement le blogage des dessinateurs. Nous nous intéressons à deux éléments principaux : les conditions dans lesquelles ont été créés les blogs des dessinateurs et leur niveau d’audience. Les dessinateurs créent leur blog pour des raisons strictement professionnelles. Pour ne prendre qu’un exemple, sur les 13 répondants, on trouve ainsi cinq dessinateurs qui affirment avoir ouvert leur carnet en ligne lors de leur entrée dans la vie professionnelle, deux qui déclarent que c’était pour s’adapter aux transformations de leur métier, etc. Les présentations qu’ils proposent d’eux-mêmes sur leurs blogs sont d’ailleurs explicites. La plupart des dessinateurs profitent en effet de cet exercice pour brosser leur CV en quelques lignes : Encadré 1 : Lasserpe Lasserpe, est né en 1 966 à Mont-de-Marsan. Après avoir écumé une bonne dizaine de fanzines, il publie ses premiers dessins dans Barre à mine, Le Monde libertaire, Nature et Progrès, Politis, L’Humanité, La Dépêche du Midi, L’Enseignant, etc. Féroce, engagé et parfois cynique, il manie un dessin minimaliste particulièrement efficace pour mettre au jour les travers de notre société. Il anime des débats et des colloques et travaille régulièrement pour une agence de communication parisienne. Lasserpe collabore actuellement à S!lence, Psikopat, Fluide Glacial, Les Clés de 12. l’Actualité, Marianne, etc Encadré 2 : Dessin Boursier Caricature, presse et humour   Ce blog est avant tout une fenêtre ouverte sur mes créations infographiques anciennes et nouvelles du dessin d’humour, de presse et de la caricature ainsi que mes différentes prestations proposées sur ces thèmes. Ces dessins ne sont pas libres de droits.13 134 Encadré 3 : À propos de l’auteur Je suis illustrateur pour la presse, la pub, et également auteur de BD. Je suis aussi gauchiste, contrarié, gauchiste car contrarié, contrarié car gauchiste. Ce blog regroupe les dessins nés de cette contrariété, que 14. l’actualité politique ne manque pas d’alimenter En matière de temporalité, on s’aperçoit que l’entrée en blogage des dessinateurs s’effectue globalement en même temps que celle de l’ensemble des blogueurs politiques (cf. tableau III). Seule différence notable entre les deux populations, les blogueurs politiques dans leur ensemble sont proportionnellement plus nombreux à avoir ouvert leur blog entre 2 011 et 2 012. Ceci s’explique par le contexte de campagne pour l’élection présidentielle qui est beaucoup plus prégnant dans cette population que pour les dessinateurs blogueurs dont on a dit que la motivation principale pour ouvrir un blog était professionnelle. Tableau III : Comparaison des dates de création de blogs entre dessinateurs blogueurs et blogueurs politiques en général (en %) Date de création Dessinateurs blogueurs (n=77) Ensemble du panel (n=3 509) Jusque 2 007 inclus 29.9 30.2 Entre 2 008 et 2 010 inclus 53.3 37.9 2 011 ou 2 01215 16.9 31.9 Environ 30 % des dessinateurs sont ainsi entrés en blogage avant ou durant 2 007, 53.3 % entre 2 008 et 2 010, et un peu plus de 15 % en 2 011 et 2 012. Au-delà de la durée de blogage, l’audience des blogs constitue un indicateur important lorsqu’on cherche à évaluer l’impact de ces blogs sur la trajectoire de leurs auteurs. On constate que la différence est relativement forte entre, d’un côté, l’audience des blogs de dessinateurs (toujours supérieure à 1 000 visiteurs uniques par mois) et, de l’autre, l’audience des blogueurs politiques en général, dont la moitié reçoit moins de 1 000 visiteurs uniques par mois (tableau IV). Marie Neihouser - Le blogage ou l’arme de second rang des outsiders du champ journalistique Tableau IV : Nombre de visiteurs uniques par mois Nb de visiteurs uniques par mois % de dessinateurs répondants % ensemble des répondants Moins de 1 000 0 47 1 000/5 000 83.3 32.5 5 000/10 000 0 9.3 Plus de 10 000 16.7 11.3 Total 100 100 teurs de presse lorsqu’ils recherchent une vitrine pour leurs travaux, alors qu’ils ne sont pas encore bien intégrés aux réseaux propres à leur profession ni reconnus dans les médias : « Quand on est musicien on peut essayer de démarcher. Avant d’avoir le mythe de Paris, on peut très bien avoir des scènes dans les bistrots, sur les esplanades, enfin, il y a plusieurs possibilités. Mais en dessin, il n’y en a aucune. Donc le seul moyen c’est d’aller voir sur les blogs pour avoir un espace de visibi17 lité. C’est pour ça que j’ai ouvert mon blog. » Le constat est évident : l’audience des blogs de dessinateurs est relativement faible. Seuls 16.7 % de leurs blogs reçoivent plus de 10 000 visiteurs par mois, soit plus de 330 visiteurs par jour en moyenne. Permettent-ils quand même aux dessinateurs d’améliorer leurs conditions quotidiennes de travail ? 16, Pour Galien, dessinateur blogueur tenir un blog permet avant tout au dessinateur d’adopter une discipline de production relativement difficile à tenir autrement : « Le truc c’est que le blog m’entraîne à publier régulièrement. Ça m’oblige à travailler. Le dessin, c’est un métier où la fainéantise et la paresse sont un gros handicap (…) Je navigue sur Netvibes [ndlr : agrégateur de blogs], je fais la tournée des popotes, je vois les blogs des copains. Je surveille une trentaine de blogs. Sur chacun de ces blogs-là, je les suis vraiment. C’est-à-dire que quand ils mettent quelque chose, on va dire neuf fois sur dix je laisse un message, à chaque nouvelle parution de ces blogs-là. Ça me permet d’entretenir un réseau, d’échanger et puis de garder un contact humain ». Mais leur blog permet aussi aux dessinateurs d’aller à la rencontre du public. Le blog comme nouvel instrument de promotion de leur travail À la manière des pigistes lorsqu’il s’agit de faire valoir leurs compétences en matière de placement de sujet (Pilmis, 2007), les dessinateurs se retrouvent à l’affut du moindre espace d’exposition de leur travail. Dans ce contexte, le blog devient un outil primordial. Il constitue en effet une vitrine qui peut être investie à moindres coûts, notamment économiques. Le témoignage ci-dessous démontre bien la difficulté dans laquelle se retrouvent les dessina- Les dessinateurs utilisent en effet leurs blogs comme de véritables « books numériques » : ils sont 38.8 % à y afficher un CV et 43.3 % à y présenter des ouvrages dont ils sont les auteurs. La proportion de republications figurant sur leur blog constitue un autre indicateur de leur volonté d’user du blog comme d’une vitrine professionnelle. Par republication, nous entendons publication sur le blog d’un contenu initialement produit pour être diffusé ailleurs (dans un autre média, pour un client, etc.) En présentant sur leur blog ce type de contenu, les blogueurs leur offrent une plus large diffusion et, surtout, les font figurer sur un support présentant l’ensemble de leur production. En d’autres termes, ils cherchent à remplir un objectif principal : augmenter la visibilité de leur travail, au-delà même de la satisfaction de leur client initial (tableau V). Tableau V : Comparaison des types de billets présents sur les blogs de dessinateurs et sur l’ensemble des blogs politiques en fonction de leur proportion (en %) Type de billets % de dessinateurs % de blogueurs journalistes Présence de republication 39.8 24.3 Uniquement des billets inédits 41 71.1 NR 19.3 4.6 Total 100 100 39.8 % au minimum des billets publiés par les dessinateurs de presse sont des republications. On peut de plus ajouter que, pour 19.3 % de leurs productions, il ne nous a pas été possible de déterminer le type de publication – publication initiale ou republication –, dont il s’agissait, ce qui laisse supposer que ce pourcentage pourrait en réalité être supérieur. Même lorsqu’on compare leur taux de republication à celui des autres journalistes (qui, a priori, Sur le journalisme - About journalism - Sobre jornalismo - Vol 7, n°1 - 2018 135 utilisent aussi leur blog pour publiciser leurs écrits), on constate que celui des dessinateurs est toujours plus fort (39.8 % contre 24.3 %). En plus de permettre de multiplier les lieux d’exposition et de diffusion de leur travail, le blog présente l’avantage pour les dessinateurs de diminuer les coûts de démarchage. « Quand je démarchais beaucoup, j’envoyais les gens systématiquement sur mon blog. Parce qu’envoyer un dossier c’est bien mais le blog fait qu’ils peuvent surfer là où ils veulent. Un bouquin papier, ça coûte cher à envoyer, ça coûte cher à imprimer et de toute façon il est rarement lu. Donc je n’en fais plus, je ne 18. fais plus que par Internet maintenant » A priori, la méthode est plutôt efficace. En effet, quand on demande aux dessinateurs le type de sollicitations dont ils ont été l’objet en tant que blogueurs, on constate qu’ils sont beaucoup plus nombreux que les blogueurs politiques dans leur ensemble à avoir été contactés par d’autres blogueurs (92.3 % contre 58.1 %) et par des journalistes (76.9 % contre 52.1 %) (tableau VI). Tableau VI : Comparaison des types de sollicitations en tant que blogueur entre dessinateurs blogueurs et ensemble des blogueurs politiques Type de sollicitation % de dessinateurs répondants % ensemble des répondants Par un autre blogueur 92.3 58.1 Par un journaliste 76.9 52.1 Par un politique 30.8 34.3 Il nous est impossible de connaître la nature des échanges qu’ils ont eu tant avec les journalistes qu’avec les blogueurs. Cependant, le fait que des journalistes aient fait l’effort de les contacter laisse présumer que la teneur de leurs échanges est a priori professionnelle. Des échanges inter-dessinateurs animent par ailleurs cet espace. D’une communauté virtuelle à une communauté professionnelle L’espace des blogs de dessinateurs constitue un espace très interconnecté. C’est un espace d’échanges, mais aussi un lieu d’entraide entre 136 pairs. 88 % des blogueurs dessinateurs sont cités par un autre blog (contre 71.8 % de l’ensemble des blogueurs politiques). De plus, 12 dessinateurs blogueurs sur 13 (contre 75.5 % de l’ensemble des blogueurs politiques) déclarent échanger sur leur blog avec d’autres blogueurs (tableau VII). Tableau VII : Échange avec d’autres blogueurs Échanges avec d’autres blogueurs % de dessinateurs répondants (n=13) % ensemble des répondants (n=745) Oui 92.3 75.5 Non 7.7 24.5 Total 100 100 Ces chiffres sont d’ailleurs confirmés par l’étude du décompte des liens dans les blogrolls de chaque dessinateur. Cette opération permet de quantifier l’intégration des blogs de dessinateur à l’espace général des blogs. En effet, plus un blog a de liens, plus on peut supposer qu’il est intégré à son espace. Or, on constate que le nombre moyen de liens dans une blogroll de dessinateur s’élève à 19.3. Si l’on ne compte que les blogs qui affichent une blogroll, on atteint même 30.2 liens par blog de dessinateur en moyenne. On constate par ailleurs l’existence de blogs-hubs, c’est-à-dire de blogs dont les auteurs-dessinateurs recensent, en plus d’une grande variété de blogs, presque l’intégralité des blogs de dessinateurs du panel. Ainsi, on compte notamment trois blogs qui recensent respectivement 86, 129 et 185 liens. Ces blogs-hubs constituent de véritables « piliers » pour la communauté. Nombre de blogueurs y font référence. Ils permettent à la communauté en ligne de se structurer et de créer des connaissances et repères communs au sein du groupe. Ainsi, parmi les 19.3 liens que présentent en moyenne les blogs de dessinateurs, 15.1 en moyenne pointent vers d’autres sites spécialisés dans le dessin (78.2% des 19 liens au total ). Dès lors, il semble bien que les blogueurs-dessinateurs de presse forment une « communauté professionnelle » intégrée en ligne, qui prolonge en partie celle de leur milieu professionnel hors ligne d’origine. Cela leur permet de se tenir au courant du travail de leurs confrères. Dans certains cas, cela impulse même certaines collaborations professionnelles. En effet, le métier de dessinateur est un métier relativement solitaire, surtout lorsqu’on n’est pas intégré à une rédaction. Pour les entrants comme pour les dominés de cet espace, cette solitude, tant psychologique que physique est d’autant plus forte qu’ils ne bénéficient que de peu de relations dans le milieu et que, bien souvent, se déplacer Marie Neihouser - Le blogage ou l’arme de second rang des outsiders du champ journalistique pour rencontrer des confrères constitue un coût économique que certains ne peuvent pas assumer. Dans ces conditions, le blog peut apparaître comme un moyen de tisser des liens, mêmes virtuels, susceptibles de leur permettre, au minimum, d’échanger avec des confrères quant à leur travail. Il déclare : « J’ai rencontré de nouvelles personnes via mon blog, essentiellement virtuellement (…). Le blog, ça m’a amené à rencontrer du monde. (…) C’est surtout des rencontres virtuelles, après le temps fait le tri, mais il n’empêche qu’il y a des gens, ça fait 4 à 5 ans que je les connais virtuellement et pourtant on ne s’est jamais rencontrés. » Parfois, ces rencontres peuvent mener à des collaborations durables : « Mon scénariste, je l’ai rencontré comme ça. Dans le monde du dessin politique, j’en ai rencontré pas mal comme ça, même un ou deux journalistes, virtuellement quoi. » Elles peuvent de plus ouvrir de nouveaux horizons professionnels : « Tenez, il y a Angoulême [nda : le festival de la BD d’Angoulême] la semaine prochaine, je ne voulais plus y aller car je m’en suis quand même pris plein la gueule là-bas et du coup, via mon scénariste, j’ai quand même eu un ou deux rendez-vous avec des petits, tous petits éditeurs ». Plus prosaïquement, même quand le blog ne permet pas d’initier des collaborations, il a tout de même l’avantage de présenter son propre travail à l’ensemble des confrères, et, inversement, d’être en mesure d’accéder au travail des confrères sans avoir ni à se déplacer, ni à payer. Les dessinateurs blogueurs peuvent ainsi approfondir à moindres frais leur connaissance de leur milieu professionnel, de sa structure, de ses membres, afin de mieux définir leurs propres objectifs. Plus encore, chacun échangeant à propos des travaux de ses pairs, il semble qu’une certaine solidarité professionnelle se mette en place : « Il n’y a pas très longtemps, je ne savais pas si je devais aller à Angoulême ou pas parce que c’est un milieu impitoyable la bande dessinée quand on n’est pas publié en album cartonné. Et du coup, comme j’ai émis le doute sur mon blog d’y aller ou pas, j’ai eu énormément de réponses, d’encouragement, de dire de pas y aller ça ne sert à rien, enfin du moins de soutien. Et là on retrouve le côté humain qui est très important sinon j’aurais été tout seul devant ma planche à dessin et je n’aurais pas su quoi faire… Là, je me sens moins seul dans ces cas-là. » Ce phénomène est d’autant plus intéressant qu’Alain Accardo montre en 2007 que le milieu des journalistes pigistes (Accardo, 2007), assez proche sociologiquement de celui des dessinateurs de presse les plus dominés, est au contraire un milieu « peu solidaire ». Si le manque de solidarité envers les pigistes de la part des journalistes intégrés pourrait à la limite se comprendre, il explique que ce manque de solidarité existe aussi entre pigistes : « Il est vrai que tout regroupement se heurte à l’obstacle – objectif et difficilement surmontable dans la pratique – de l’extrême dispersion et de la grande mobilité de cette catégorie de journalistes ». Les dessinateurs ont tenté de résoudre ce problème avec les blogs. Jusqu’à présent, aucun élément ne nous permet cependant de savoir quelle est l’efficacité de ces blogs et quelle est leur influence sur la trajectoire et l’insertion des dessinateurs de presse. En effet, nous avons observé les différents usages que les dessinateurs en faisaient, mais une question reste posée : ces blogs permettent-ils vraiment aux dessinateurs de surmonter les obstacles auxquels ils sont professionnellement exposés ? Un instrument vraiment efficace ? Notre questionnement se découpe ici en trois temps. Nous chercherons d’abord à connaître le taux d’abandon de leur blog par les dessinateurs, 4 ans après la constitution du panel. Dans un second temps, nous tenterons de voir si la mise à disposition gratuite de leur travail par les blogueurs dessinateurs ne leur est pas tout de même préjudiciable. Enfin, nous chercherons à savoir dans quelle mesure les blogs de dessinateurs permettent de remettre en cause les hiérarchies traditionnelles au sein de la profession. Un taux d’abandon élevé Nous partons du raisonnement suivant : si les dessinateurs sont nombreux à avoir continué de bloguer, on peut penser que c’est parce qu’ils considèrent que leur blog leur est utile dans leur parcours professionnel. En revanche, si beaucoup ont abandonné leur blog, cela signifie peut-être que ce dernier ne leur a pas apporté autant qu’attendu en matière d’intégration et de reconnaissance au sein 20. de leur champ professionnel Sur le journalisme - About journalism - Sobre jornalismo - Vol 7, n°1 - 2018 137 Au 9 mai 2016, 54,2 % des blogs de dessinateurs étaient encore actifs, contre 45.8 % inactifs. Le taux d’inactivité est élevé. Quasiment un blogueur sur deux a arrêté de bloguer dans les quatre ans ayant suivi la constitution du panel. Il semble donc que la tenue d’un blog n’ait pas permis de satisfaire les attentes de quasiment 50 % des blogueurs dessinateurs. Qui sont donc les dessinateurs qui ont abandonné leur blog ? Serait-ce ceux qui n’ont pas réussi à capter l’attention de leurs confrères ? On constate en effet que plus le blog est actif, plus le nombre de liens dans la blogroll augmente. Mais rien ne permet de savoir quel est le sens de la relation : est-ce parce que le dessinateur est actif en ligne qu’il se fait des liens ou est-ce au contraire parce qu’il réussit à tisser des liens qu’il continue de bloguer ? Il apparaît d’ailleurs qu’il n’y a pas de lien entre le nombre de commentaires et l’activité du blog. Ainsi, si les blogs inactifs ont moins de liens dans leur blogroll, ils bénéficient tout de même d’un certain retour de la part des lecteurs. La question reste donc ouverte. D’autre part, la position dans le champ professionnel ne semble pas jouer non plus : ne pas avoir été cité dans un grand média ou même ne pas avoir contribué à un grand média ne semble pas avoir d’impact majeur sur la probabilité d’abandonner ou au contraire de maintenir une activité de blogage. Une gratuité problématique ? Galien exprime bien la situation dans laquelle se retrouvent certains dessinateurs : « (…) Le dessin politique ça a marché si on veut. Je ne gagne pas ma vie avec, c’est très clair, parce que le dessin que je fais est plutôt ancré à gauche, voire anarchiste, si bien que je travaille pour un journal, mais dans ces milieux-là, en fait, il y a tellement peu de publicité, qu’il y a peu d’argent. Le peu d’argent qui est récolté sert uniquement à l’édition du numéro suivant. Si bien que personne n’est payé. Pas un journaliste, pas un dessinateur. Seule la secrétaire qui travaille à 60 heures par semaine pour ça qui est payée au smic. Sinon, les journalistes ne sont pas rémunérés, pourtant il y a des bonnes plumes qui signent là-dedans et même en dessinateurs, il y a des très grands dessinateurs qui font ça pour participer on va dire, je ne sais pas, pour pouvoir s’exprimer. Et faire en sorte qu’il y ait une diversité politique au point de vue journa21 listique. (…). » tation des revenus des dessinateurs les plus précaires. Seuls moins d’un tiers des dessinateurs (4 sur 13) qui nous ont répondu affirment gagner de l’argent grâce à leur blog. Ils ne précisent pas combien. Mais surtout, on s’aperçoit que ce gain est toujours indirect : en d’autres termes, ils ne sont pas rémunérés pour tenir leurs blogs et ne tirent pas non plus de bénéfices de la publicité payante qu’ils pourraient héberger sur leur blog (bien souvent, ils n’en hébergent pas). Dans ces conditions, ceux qui répondent gagner de l’argent grâce à leur blog ne le font que parce qu’ils considèrent que le blog leur a permis d’élargir leurs contacts (pairs, éditeurs, clients), ce qui leur a permis par la suite soit de vendre plus de contenu, soit de démarrer de nouveaux projets. La mise à disposition gratuite d’un travail, surtout lorsqu’il s’agit d’un travail fait dans un cadre professionnel, peut par ailleurs entraîner une dévalorisation de ce travail et de son auteur (Poels et Hollet-Haudebert, 2013) alors même que ce dernier cherche au contraire à se/le valoriser en le diffusant le plus largement possible. En effet, certains travaux montrent que la gratuité est généralement associée, dans l’opinion des gens, à une moindre qualité (Gorn, Tse et Weinberg, 1990) de l’offre ou du service rendu. Le dessinateur contraint de diffuser gratuitement ses travaux peut lui-même se sentir d’autant plus rabaissé : comment entretenir une estime de sa position et de son travail quand on choisit (même si c’est au vu du contexte professionnel dans lequel on évolue) de mettre ce travail gratuitement à disposition du public ? Certains dessinateurs blogueurs s’efforcent de demander la non-reproduction des dessins qu’ils publient, mais cette demande relève bien souvent plus de la symbolique qu’autre chose. Au final, exposer gratuitement leurs dessins en ligne peut donc s’avérer être une option à double tranchant pour les dessinateurs. Des hiérarchies traditionnelles difficilement remises en cause Deux séries de résultats sont particulièrement évocatrices lorsqu’on cherche à savoir si la tenue d’un blog peut permettre aux dessinateurs les moins dotés de progresser dans leur intégration et leur visibilité au sein de leur profession. Intéressons-nous d’abord au nombre de liens dans la blogroll des dessinateurs en fonction du média le plus haut placé hiérarchiquement les ayant cités (tableau VIII). Face à cette problématique, le blog reste un outil bien modeste en ce qui concerne l’augmen- 138 Marie Neihouser - Le blogage ou l’arme de second rang des outsiders du champ journalistique Tableau VIII : Nombre de liens dans la blogroll en fonction du média le plus haut placé les ayant cités Position média 0 lien 1 à 20 liens Plus de 20 liens Total Grand 29.6 34.5 62.5 41.3 Autre 29.6 31 29.2 30 Pas de citation 40.7 34.5 8.3 28.8 Total 100 100 100 100 On constate que les blogs recevant plus de 20 liens dans leur blogroll sont, pour 62,5 % d’entre eux, tenus par des dessinateurs cités par des grands médias. Cette proportion tombe à seulement 8.3 % pour les dessinateurs qui ne sont cités dans aucun média. À l’inverse, on constate que si 29.3 % de ceux qui n’ont aucun lien dans leur blogroll sont par ailleurs cités dans un grand média, ce taux s’élève à 40.7 % pour ceux qui ne sont cités nulle part. Ainsi, on remarque combien l’intégration à la blogosphère et la reconnaissance dans les médias traditionnels semblent corrélées. Ce premier constat est renforcé lorsqu’on observe le nombre de commentaires moyen par billet en fonction du média le plus haut placé hiérarchiquement qui les a cités (tableau IX). Tableau IX : Nombre de commentaires moyen par billet en fonction du média positionné le plus haut placé qui les a cités Position média - d’1 com 1à5 com 5 à 10 com 10 à 100 com Total Grand 39 25 0 75 37.9 Autre 29.3 58.3 100 25 36.2 Pas de citation 31.7 16.7 0 0 25.9 Total 100 100 100 100 100 75 % des blogs recevant entre 10 et 100 commentaires par billets sont tenus par des dessinateurs ayant déjà été cités dans un grand média. Aucun dessinateur sans citation ne parvient à obtenir autant de commentaires par billet. En d’autres termes, ce tableau nous permet d’avancer l’idée selon laquelle seule une visibilité minimale dans les médias dits traditionnels permet d’obtenir une certaine visibilité en ligne. Un dessinateur peut certes avoir été cité dans un grand média et ne recevoir que très peu de commentaires, mais il ne peut en aucun cas recevoir de nombreux commentaires s’il ne bénéficie pas d’une présence minimale dans les médias. Plus encore, seul le dessinateur affirmant gagner plus de 3 700 euros par mois reçoit plus de 10 000 visiteurs mensuels. Ainsi, ce serait bien le niveau d’intégration au champ journalistique, et plus encore la reconnaissance dont le dessinateur jouit dans ce champ, qui serait le meilleur moyen de prévoir la potentialité pour lui d’obtenir une certaine visibilité sur son blog. En d’autres termes, le blog, malgré tous les usages qu’en font les dessinateurs, ne leur permettrait pas en réalité de franchir les barrières professionnelles qui se dressent devant eux. Il peut certes constituer, dans certains cas, un outil d’échange, de publicisation de leurs travaux ou même de motivation professionnelle, mais ne permet en aucun cas d’anéantir les différences de position initiales dans le champ journalistique. Le numérique ne gomme pas les différences sociales existantes. Conclusion En définitive, cet article nous a permis d’étudier de plus près un groupe qui ne retient pas souvent l’attention des chercheurs : celui des dessinateurs de presse. Après les avoir positionnés dans le champ journalistique, nous avons vu quels usages ces dessinateurs faisaient de leur blog. On a ainsi pu constater que le blog avait une double fonction. Il leur permet d’une part d’aller à la rencontre de leur public, en leur permettant de présenter leur travail en ligne, et, d’autre part, de s’adresser à leurs pairs, dans la mesure où il leur permet d’intégrer la communauté de dessinateurs en ligne. Néanmoins, si dans un contexte difficile pour les dessinateurs de presse, cet outil peut apparaître dans un premier temps salutaire, on s’aperçoit vite qu’il ne leur permet pas de surmonter les obstacles les plus importants auxquels ils sont confrontés : en effet, le blog constitue au mieux une arme de « second rang » pour les dessinateurs. Il ne leur permet pas d’échapper à leur position initiale dans le champ journalistique. Ce résultat est d’autant plus intéressant, qu’il est conforté par des résultats plus généraux obtenus lors de notre travail doctoral. Nous avons en effet démontré dans notre thèse que le blogage politique dans son ensemble ne permettait que très rarement d’ouvrir la prise de parole politique à des individus extérieurs aux champs politique et médiatique traditionnels. En d’autres termes, ce blogage ne permettait donc pas de renverser les hiérarchies établies dans ces champs. Au contraire, il semble en certains points les renforcer (Neihouser, 2016). Date de soumission de l’article : 15 avril 2016. Date d’acceptation : 31 octobre 2016. Sur le journalisme - About journalism - Sobre jornalismo - Vol 7, n°1 - 2018 139 Notes 1. Sur ce point, cf. la nomenclature INSEE en ligne : http:// www.insee.fr/fr/methodes/default.asp?page=nomenclatures/ pcses/n4_354a.htm (lien relevé le 28.09.2016). 2. Bien qu’on observe une légère surreprésentation des femmes (15.4 % contre 7.3 %) et des moins de 50 ans (77 % contre 65.9 %) parmi les répondants au questionnaire. 3. Entretien avec Galien réalisé par téléphone le 23.01.2015. 4. Cependant, il est à noter que nous avons tenté de trouver des chiffres à propos de la population des dessinateurs de presse en France : notre recherche est restée vaine. 5. Voir par exemple : Harris Interactive, Les journalistes présents sur Twitter et la campagne présidentielle de 2012, 2012, disponible sur http://www.harrisinteractive.fr/news/2012/ CP_HIFR_Medias_14062012.pdf. D’après ce document, 74 % des journalistes auraient voté François Hollande au second tour de l’élection présidentielle de 2012. 6. Sur 13, c’est le cas de 10 dessinateurs. Parmi les trois autres, un se déclare chômeur, un autre étudiant, et le dernier retraité. 7. Même si cet indicateur peut paraître incomplet et simplificateur, il permet tout de même de situer grossièrement les dessinateurs par rapport au champ médiatique/journalistique. 8. Le choix du moteur de recherche Google s’explique par le fait qu’il est le moteur de recherche le plus utilisé. Il permet donc de trouver les informations de la manière dont les individus sont eux-mêmes les plus à même de les trouver. Quant au choix de la 5e page, il s’explique par le fait qu’il permet d’être certains d’avoir les informations les plus importantes sur un sujet tout en sachant qu’au-delà de cette 5e page, les résultats sont bien souvent moins pertinents. 9. À noter que certains ont publié à la fois dans un grand média et dans un média alternatif : ils ont alors été comptabilisés dans la catégorie « grand média ». 10.
47,687
870253e1352b11952d6f30751fd26fe1_1
French-Science-Pile
Open Science
Various open science
1,936
Éléments germaniques du Dictionnaire Liégeois
None
French
Spoken
8,129
16,249
Éléments germaniques du Dictionnaire Liégeois par JEAN HA usT, Professeur à l'Université de Liège. On sait que M. Corin s'applique avec zèle à l'étude de cette question. Il a débuté en 1932 par un article de 24 pages (1), auquel j'ai fait une courte réponse (2). Il vient de. publiér une nouvelle série de notes, beaucoup plus impor-· tante (3). Comment caractériser Ie genre de M. Corin? Il prétend aller<< au delà >> des pionniers wallons, << réaliser un progrès. sur les approximations occasionnelles du DL >> (p. 13). Parfait. Mais il nous dit aussi : << Mes propositions sont d' essence· fantaisiste pour la plupart ; ce sont des associations spontanées; je les donne comme telles ... Au reste, que serait une étymologie sans fantaisie? ... (p. 11). Protestez-vous contrè une de ses gloses, il répond froidement : << Je conviens que ma note est fantaisiste et je ne l'ai pas. donnée pour autre chose >> (p. 6). Ainsi, au désir de plus deprécision scienti:fique, s'allie chez notre << braconnier >> un (1) A. L. CORIN. Au del,à de Grandgagnage et de Raust. Menus· propos d'un cc braconnier ». Extrait des Mélanges Grandgagnage. (=BD 17; 1932). (2) J. HAUST. Le Dict. Liég. et les germanistes (dans les Mélanges· Salverda de Grave, p. 158-164. Groningue, 1933). (3) Nouveaux propos d'un braconnier, 144 p., formant à peu près. tout le BD 19; 1934 (paru au début de 1936). -432 JEAN RAUST ton badin et désinvolte : mélange bizarre et quelque peu -déconoertant pour qui prend les choses au sérieux. Ma première réponse consacrait 4 pages au premier .article de M. C. << C'est, dit-il, lui accorder une importance que je ne lui soupçonnais pas. >> Formule de rhétorique. De la raison hag-, je disais que les langues germaniques n'ont tiré que behagen. II m'objecte avec raison que j'oublie Ie néerl. mü;hagen (all. Misshagen, misbehagen) ; mais les cinq dérivés qu'il ajoute (behaglich, etc.) n'entrent pas en ligne de compte. ,Je soulignais enfin que Ie ton de ses commentaires paraissait dépourvu d'aménité, de compré_hension pour l'effort de synthèse que représente Ie DL. Il croit ou feint de croire que je quémande << des éloges généraux rappelant la réclame commerciale >> (p. 1, n.). Il est vrai que, deux lignes plus loin, il avoue << quelque maladresse dans la façon de formuler sa pensée >>. Dès lors, n'insistons plus. Mais il ne m'en voudra pas si je lui rends la pareille, si je m'amuse à relever comme lui de simples vétilles et si, çà et là, je mets quelque vivacité dans la réponse à ses critiques. Au fond, je lui sais gré de m'avoir -obligé à revoir certaines conjectures hátives ou obscures, _pour en développer la raison, ou parfois pour les répudier. Il faudrait plus de cent pages si l'on devait répondre à toutes les questions ou hypothèses émises, à jet continu, _par Ie savant germaniste. Certaines sont à retenir. Beaucoup me déroutent ou ne m'intéressent pas. Au vrai, je manque souvent de la compétence nécessaire, n'étant -qu'un dialectologue wallon. Ma chasse n'est pas grande, .mais elle me suffit et je n'ai pas Ie goût de braconner sur Ie terrain d'autrui. Je me contente donc, dans ce qui suit, d'apprécier brièvement les notes de M. C. qui ont arrêté mon attention. Plus tard, je reviendrai sans doute sur cer·tains articles qui demandent plus de développements. 1. Voici d'abord une expression qui n'~ rien de germa- ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 433 nique et sur laquelle M. C. m'a interpellé dans son premier article (1) : faire des adiyos' (salamalecs). II y voit un emprunt de l'esp. adios (2). Or la domination · espagnole (que Liège au reste n'a jamais connue) n'a laissé, pour ainsi dire, aucune trace dans nos parlers. Je ne connais que l'archaïque alf êr (Ciney, etc. ; cf. BD 9, 53) et amigo (violon, prison communale), lequel appartient au français de Belgique plutöt qu'au wallon. Quant au hesbignon hatche (flambeau de procession ou d'enterrement ; à Odeur : DL 735), que GRANDG. tirait de I' esp. hacha (flambeau), j'y vois Ie flam. dial. et arch. heitse (flambeau ; ap. VERcouLLTE). - Je tire adiyos' du grec hagios ; mais, au dire de M. C., << c'est supposer notre bon pe"uple liégeois bien savant ! >> Il oublie l'influence cléricale, qui a donné les synonymes : faire des órémus' (Liège, etc.), des mittimus' (Mons), des sanctus' on des adórémus' (picard), sans compter abarone, ad vitam aeternam, ad revisum, etc. Chaque fois qu'à !'office du Vendredi Saint Ie chceur dit Agios o Theos, on fait une génuflexion; il n'est donc pas exact d 'affirmer que ce mot << ne s'accompagne pas de cérémonies particulières >>. Enfin, j'attire l'attention sur ce passage de ÜALVIN, Sermons sur le livre de Daniel : << Quant aux péchés véniels ... quand on aura baisé Ie c ... d'un prêtre, c'est-à-dire Ie bout de sa chasuble, ou qu'on aura fait une croix ou quelque autre agios, voilà les péchés abolis >> (3). Passons aux nouveaux propos du braconnier. 2. (p. 5) bèzé, quinaud. - M. C. résume souvent de façon · inexacte les articles du DL; ce ne serait pas ·grand mal si, de ce résumé, il ne tirait ensuite un argument pour (1) BD 17, 104. (2) T elle était déjà !'opinion de GRANDG., I 8. (3) Cité dans la Revue des Etudes rabelaisiennes, t. 9 (1911), p. 429. (Communication de M. G. Charlier, prof. à l'Univ. de Bruxelles). - Voyez ei-après, p. 470 ; et mes Etym. w. et fr., p. 1. 28. 434 JEAN RAUST ses critiques. Voici mon article, dont je supprime seulement les exemples : << bèzé (Verviers, etc.) quinaud, c.-à-d. honteux et vexé d'avoir le dessous; (Cointe, Seraing) accablé de fa tigue ; (Verviers) su bèzer se formaliser [ Origine inconnue. Serait-ce altéré de bozer?] >>. - Voici maintenant << bozer (p. llû et 715) dérober, chiper, filouter ·(dè l'argent), d 'après FoRIR; sens relevé à Hognoul; bozé (Bergilers) att.rapé, dupé; (Waremme) décavé, ratiboisé. [Du même radical que le fr. bouse? Comp. bèzé, bozins] >>. - La note de M. C. montre qu'il n'a sûrement pas compris les observations qu'il tient de M. Feller. Il lui fait aflirmer que bozé ne signifie ni dupé ni décavé. M. F. a voulu sans doute dire qu'il ne connaissait pas ces deux acceptions, que j'ai notées en H esbaye et qui sont incontestables. De plus, d'après M. C., M. F. fait remarquer que<< le mot en question [lire bèzé !] ne signifie pas quinaud, c.-à-d. honteux, mais plutöt vexé, offensé >>. Je renvoie à mon texte complet cité ci-dessus, ou, pour éviter toute chicane, il suflirait de supprimer << quinaud, c.-à-d. >>. - Le rapprochement que j'ai osé faire (avec des [ ?]) entre bèzé et bozé, se justifie plus ou moins par l'alternance vocalique de tozer (Glons), mis pour *tèzer ; et par celle de bozins et de bèzî ( = fr. bousin?) ; bozerer << enduire de house >>, que cite M. F., suppose d'ailleurs un primitif *bozer de même sens. Quant à l'idée de << house >> dans Ie liég. bèzé et Ie hesb. bozé, elle scandalise M. C., qui n'a sans doute pas << !'esprit wallon >>. Notre peuple fait bien d'autres métaphores ! 3. (p. 6) casmatroye. - Je cite le texte assez négligé de M. C. : << Selon M. Haust [DL, v 0 madrouyî] casmatroye serait dérivé du néerl. modderen = boueux (selon M. Haust, = fouiller dans la boue; fig., accommoder; - ou trouvet-on ce sens?), au moyen du préfixe péjoratif cas- ; c'est à vous dégoûter de cette soupe ! >> - Je Ie renvoie au dict. néerl. de VERCOULLIE. A mon tour de demander ou il ÉLÉMENTS GERMA IQUES DU DICTIONNAIRE LIÉGEOIS 435 trouve son << boueux >>. Le néerl. modderen est un verbe et non, que je sache, un adjectif. - Pour Ie développement sémantique qui << dégoûte >> M. C., comparez Ie nam. madórin, s. m., 1. (Stave) boue ou excrément liquide ; 2. (Celleslez-Dinant) ratatouille, mélange peu ragoûtant. Ce terme inédit (1) dérive probablement de la même racine mod> mad-, plus une finale empruntée à cadórè (Humain), cadórer (Laforêt), cadorer (Flamierge) << barbouiller de córin, de couleur, de matière fécale >>; proprement, péjoratif de dorer. 4. (p. 7) mozète. - Le DL cite l'all. dial. mutz << dont Ie sens, remarque M. C., n'est pas indiqué >>. Mais Ie DL dit : << mutz ap. WEIGAND, v 0 musche >>. Cette référence devrait su:ffire à un germaniste. - Il ajoute : << M. Feller a des doutes sur l'identité des deux mots mozète et mizwète >>. La rédaction de M. C. est si peu claire que je parais être !'auteur du rapprochement de ces deux termes qui n'ont, de toute évidence, aucun rapport. Cette idée singulière est émise dans Ie premier article de M. C. - D' autre part, je ne crois pas que Ie néerl. mos (mousse) puisse être pris en considération. 5. (p. 18) blanmûse (néerl. blammuyser, west-fl. blamuize). - << Ou a-t-on trouvé ces mots néerlandais ?... Comment les explique-t-on? >> - Dans FEW, I 393, lequel invite à lire la dissertation de GEZELLE, Loquela, 60. 6. (p. 20) cahote, d'après Ie DL, signifie << rouleau de monnaie >> et aussi << cornet de papier. >> M. C. supprime Ie second sens. Le DL dit ensuite : << Probt altéré du fr. carotte, comme mahote est mis pour marote >>. M. C. supprime cette comparaison gênante et n'en tient nul compte dans sa note. << Ne vaut-il pas la peine, suggère-t-il, de noter qu'à ( 1) On ne connaissait que la forme altérée madjorin, excrément humain (A. LURQUIN, Gloss. de Fosse-lez-Namur'). 436 JEAN RAUST Eupen, Malmedy et Aix, on dit aussi kahot, kahotte? >> Admirons Ie sans-gêne de M. C., qui situe d'autorité Malmedy la W allonne dans la région de langue allemande. Mais passons. L'article cahote figure au début du DL, ou je ta,chais de comprimer l'énorme matière en visant surtout Ie parler de Liège et des environs immédiats. J'aurais pu être plus affirmatif et mettre en relief les détails suivants : 1° à Jupille, on dit cahote di toûbac', mais sètchê d' tchikes (l); comp. Ie fr. carotte de tabac; - 2° à Warsage et à Bergilers, cahote = seulement << rouleau (de monnaie) >>, mais on dit sètchê de bonbons ; - 3° la pomme de pin, qui s'appelle carote sur une foule de points de la W allonie, se dit cahote à Argenteau, Seraing, Flémalle, Sprimont, Tavier, Tohogne, etc. Ajoutez, toujours dans Ie même sens, carote ou cayote à Roy-en-Famenne, caote ou maote à Custinne; etc. 7. (p. 20) caterèyé; - Note inutile. La phonétique liégeoise suffit pour assurer que ce vieux mot liégeois -vient du flam. koterij. 8. chlam. - La partie << phonétique >> de la consultation Polain est amusante. L'excellent folkloriste liégeois, qui est aussi un remarquable pince-sans-rire, a sans doute voulu mystifier nos germanistes. 9. chnik,' genièvre (all. schnicken). - Résumé inexact, comme très souvent. Le DL dit, pour l'étymologie : << Argot fr. chenique ; de l'all. schnicken >>. M. C. supprime la moitié de ma note qui s'inspire de BEHRENS, Beiträge, p. 48-50 ; puis il demande ingénument: << Le mot ne serait-il pas entré dans Ie vocabul~ire wallon par Ie français? )• 10. (p. 23) crahê. - Il fa~t. tenir compte du nam. craya, qui ne s'accommode pas d'une étym. par l'onomatopée (1) De même, dans Ie Namurois (Yvoir, Falaën, Denée, etc.), j'ai°noté caote di toubac', à cöté de satchot d' boubounes. ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 437 crac (voir au surplus BD 12, 146). Quant au liég. crohî, il n'a pas la même origine que Ie fr. croquer. 11. (p. 24) crame, écume de bière. - Dérive tout simplement de cramer. La note de M. C. est inutile. 12. (p. 26) crole (néerl. krol). - M. C. objecte : << La forme néerl. normale est krul; il faudrait donc citer un dialecte (Ie fl.amand) ou bien Ie m. néerl. crol. >> - Mais VERCOULLIE donne krol et ne mentionne krul qu'à sa place alphabétique. D'autres, KoENEN par exemple, disent que krol est une forme sud-néerl. de krul. Comme la forme rhénane est déjà krolle au moyen age, on peut admettre que Ie mot liégeois pro vient à la fois de !'Est et du N ord. 13. cumulet. La note de M. C. ne nous intéresse guère. Le DL dit que le mot Iiégeois est coupèrou et que cumulet est du français-wallon; il renvoie aux Etym. w. et fr., p. 297" article dont M. C. ne tient pas compte et qui lui aurait appris que cumulet nous vient de l'Ouest. -··14: (p. 27) cwasse, brosse à goudronner. - La note de M. C. manque de pertinence. Le mot n'est usité que dans Ie langage des bateliers. Pourquoi M. C. néglige-t-il cette indication du DL 1 De même pour ddvid, rdye, smak, etc. 15. cwaye, caille. - D'après M. C., j'aurais dû citer l'anc. fr. quaille comme étymon direct du w., avec Ie latin quaecola [sic; lire quaccola], etc., que certains dérivent de l'aha. quatala (onom.), d'ou Ie bas-all. quattele, etc. On me renvoie à BLOCH, qui croit caille d' origine germanique. Je connais tout cela, ainsi que !'opinion de GAMILLSCHEG et celle du REW. Je me suis rallié à !'avis de ce dernier qui> tout en admettant un rapport possible avec !'aha. quahtela ou Ie néerl. kwakkel, juge invraisemblable que Ie groupe roman provienne ·directement du germanique. Tous les mots cités viennent manifestement d'une onomatopée. 16. (p. 28)damaböme, <<tourbillon (depoussière: de neige, · de foin) >>, dit Ie DL. - M. C. réduit la définition à << tour- 1. 438 JEAN HAUST billon de poussière >> pour en tirer Ie prétexte d'un rapprochement fantaisiste avec Ie suédois dam (poussière), etc. Il qualifie ma définition d'incomplète. En effet, dit-il, M. Feller ne connaît damabóme que dans un seul sens : << femme de neige, grosse statue de neige agglutinée par roulement, etc. >>. Cette acception me surprend ; mais existe-t-elle vraiment? et ou? Comment, d'une statue de neige, peut-on dire que c'est un homme ou une femme? Je n'ai jamàis connu, dans ce sens, que<< ~onhomme de neige >> (notamment dans mon enfance, à Verviers). En revanche, Ie dictionnaire verviétois de LOBET donne : << damabóm, tourbillon, vent impétueux qui tournoie >> (cf. GRANDG., I 163); FoRIR : << damabóm, tourbillon de poussière >>; de même WILLEM, et BSW 9,60 : << damabóme, trombe >>; ib., 21, 69, même sign. ; sans compter d'autres textes imprimés qu'un wallonisant doit connaître. D'autre part, voici les témoignages oraux que j 'ai recueillis : dam_abóme (Liège, Vottem, Glons, Roclenge, Trembleur, Sprimont) tourbillon de vent ; (Jupille, Clermont-Thimister) tourbillon de foin ou de poussière; - amabóme (Neufchäteaulez-Visé) tourbillon de vent ; - vagabóme (Liers) tourbillon de poussière, de neige, de fumée : come i boûtène ! quéle vagabóme ! << comme Ie vent refoule la fumée dans la chambre ! quel tourbillon de fumée ! >> - Enfin, à l'autre bout de la W allonie, au sud de Beaumont (Renlies, Rance, Montbliart), une damabonde = un tourbillon de vent. J'y reconnais une survivance curieuse de la Dame A bonde du moyen age, fée qui parcourait, disait-on, les maisons et les celliers. Cette explication, <lont M. C. parle d'un ton moqueur, est corroborée par la survivance de la fée M élusine (arr18 d'Ath et de Thuin) et de la barende vrouw (Brabant), dolvrouw (Hageland), dans la régjon flamande (1). - Un , (1) Pour plus de détails, cf. J. HAUST, Deux personnifications du Vent dans les parlers romans de la W allonie (Vie .W allonne, 1930, t. XI p. 103-105). ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 439 texte de 1579 mentionne, dans la commune de Sprimont, Ie preit emprès la roche Dame Abonde, à Chanxhe >> (1 ). Selon toute apparence, un autre souvenir de la légende du moyen àge survivait donc au XVIe siècle dans ce nom de lieu. << 17. (p. 29) dank, merci (néerl. dank). - << Et pourquoi pas Ie flam., l'all., le bas-all.? >> - Exemple typique de ]'indiscrétion du braconnier. Le mot dank et bien d'autres appartiennent à la catégorie des emprunts humoristiques. Est-il liégeois? Non, vraiment. Le DL le note à titre de simple curiosité. Celui qui profère un jovial << dank èt mèm: ! >> a conscience qu'il use d'un terme étranger; il pense avant tout à nos voisins du N ord. 18. david (bossoir) n'est connu que des bateliers et, partant, ne peut nous venir que du néerlandais. Voir la note de J. GRAULS, BTop. IX 285. 19. d ih, étanche (all. dicht). - lei M. C. a raison. Ce terme de batellerie doit venir du limbourgeois et non de l'allemand. 20. è.jadje, jauge (all. gargel). - Le dernier mot doit être une coquillè du DL pour galgen. Je n'en retrouve aucune trace dans mes notes. '. 21. (p. 31) duwèle. Même observation que pour dävid. 22 . (p. 32) faye, faille (soie, mantille). - Après une dissertation de deux pages sur !'origine du fr. fa?'.lle, M. C. se rallie à ma proposition, qui concorde d'ailleurs avec celle de l'Etym. Woord. de VERCOULLIE, v 0 falie. 23. (p. 34) fèl. Vair FEW, III 523, v 0 *fillo. 24. fèsse, -î, dérivent de l'all. dial. fitz, -en (DL). La note de M. C. confirme cette étymologie. On en apprendra davantage dans FEW, III 584. (1) <Euvres de Sprimont, reg. 3, fo 70 v 0 (communication de M. Edgard Renard). 440 JEAN RAUST 25. (p. 35) ftaböder. Cette forme, contestée par M. Feller, est donnée par Forir, Duvivier, Grandg~gnage; voir aussi B. et D., Choix, p. 169. On ne la connaît plus aujourd 'hui à Liège. On dit flabárder à Stavelot-Malmedy, flabórdè à Ciney. Le gaumais flabaudji m'est inconnu. - Le FEW ne signale pas ce groupe. 26. flawe. Voir BTop. VII 201. Dans la note de M. C. , lire f eble au lieu de fleble. 27. (p. 38) gueûse. - L'article de GAM. sur Ie fr. gueuse paraît réduire à néant la note de M. C. et l'étymologie du DL. 28. (p. 39) guizèle, effronté (néerl. gezel compagnon). - M. C. objecte : << Et l'all. Geselle? >> C'est qu'il néglige des détails importants donnés par Ie DL. Le mot est relevé seulement à Crehen-lez-Hannut et dans l'expression ironique ine pitite guizèle << un petit effronté >>. Ajoutez éne guézèle (Pellaines) << un loustic >> ; one pitite guizèle (Ciney) << un gaillard à qui on ne peut se fier, qui cherche noise à tout Ie monde >> (cf. Etym. w. et fr., 306). Il est manifeste que l'allemand ne doit pas intervenir ici (1). 29. haminde. M. C. écrit à ce propos plus de deux pages sans grand intérêt pour Ie wallon. Voir là-dessus GAM., hamée et hameau. 30. (p. 41) hatch èt match. Pourquoi M. C. ajoute-t-il Ie sens<< au rancart >> que cette expression n'a pas dans les exemples du DL? 31. (p. 42) hossî, bercer (moyen et bas-all. hotzen bercer). - M. C. demande ou l'on emploie Ie mot en bas-allemand. La question s'adresse à WEIGAND, chez qui j'ai pris Ie ren(1) M. J. Grauls veut bien m'écrire à ce propos : « Pour votre guizèle, l'explication se trouve dans A. RUTTEN, Bijdr. tot een Rasp. ldiotikon (1890), p. 80 : Gezel, (s. neutre), gemeene jongen of dochter : Dat is een gezel, die Jan, die Trui. Ga met een gezel niet uit. >) ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 441 seignement. - Pourquoi ne citer, du mot liégeois, que le, sens << beroer >>? Telle paraît bien être l' acception première. du germ. et du dérivé liégeois ; mais Ie DL donne aussi << hocher, secouer, branler, vaciller >>, etc. Voir de plus. FALK-TORP, I 435. 32. (p. 43) nope, t. de drapier. - Je trouve Ie mot, attesté, depuis 1427, dans ce texte liégeois : << 4 lits deplumes et un de nopJJes >> (Échevins, 6, 23°). Il faut donc: le faire remonter au m. néerl. ou au m. all., ou à tous les. deux à la fois. 33. (p. 44) pèkène, t. de brass., viendrait de l'all. Beckenplutöt que du néerl. bekken (bassin), d'autant mieux que pèkène n'est attesté que par le verviétois LoBET. 34. (p. 45) räye, t. de bat., ne peut nous venir que du. N ord, par la Meuse. 35. (p. 46) rinnä. - Voir BTop. VIII 314. 36. (p. 47) rossète, gardon . .- Le DL préfère la graphie rocète, dérivé de l'anc. fr. roce, que Gon. définit << gardon >>,. avec des exemples ou se _trouve notamment la forme roxhe; dans un texte liégeois de 1555. Bien que le fr. de Liège appelle ce poisson rousse, il ne peut être question du latin russus. Si Ie DL ajoute : << Comp. l'all. roche (raie) >>, c'est sur la foi de REW 7365, qui tire les mots ~msdits de l'anglosaxon rohha << Rochen >>. - Comp. aussi le néerl. rots, d'origine inconnue d'après FRANCK-VAN WrJK. 37. roufe, écume de bière ; croûte sur une mare stagnante (néerl. roof). - Le mot néerl., dit M. C., signifie<< croûte sur une plaie >>. Oui, mais aussi << peau sur Ie lait >>,. d'après VERCOULLIE. Le mot liégeois est relevé à Odeur (M. 0. néglige trop solivent l'irrdication géographique, si importante pour l'étymologie). Il me paraît donc qu'il faut s'adresser au néerl. et non à l'all., d'autant plus que roof a une forme dialectale roef (ap. ScHUERMANS). - Le DL 442 JEAN RAUST -compare roufe avec rive 2 (ou mieux rife), et dit que ce dernier est probt une forme variée de roufe. M. C. n'en parle pas. Je crois utile de noter ici que J. GRAULS (BTop. VIII 130) a montré que les deux mots n' ont aucune pa.renté et que rife se rattache au mha. rîfe (all. Rei/, givre). 38. (p. 48) s ä, saule. - Le DL cite l'anc. fr. salengue, dérivé du germ. sale (saule). M. C. demande : << Qu'est-ce -que ce germ.? >> Mais ne le trouve-t-on pas dans le mha. .salewide (ap. WEIGAND, v 0 salweide; cf. aussi BD 11, 91)? - M. C. ajoute que l'aha. salaha dérive du latin salix. Cela est nouveau pour moi et contraire à !'opinion de WEIGAND et de KLUGE. Ce dernier estime que salaha est -<< recht germ. >> et seulement << urverwandt >> du latin salix -e t du grec iJ..twrJ. 39. (p. 49) smak, grande voile (néerl. smak). - M. C. -objecte : << Et le bas-all. smacke? ... >> - Je n'ai pas à m'oc•c uper du fr. ; le mot liégeois, t. de bat., ne peut nous venir que du Nord. 40. spèli (épeler), qui répond à l'anc. fr. espelir, atteste un emprunt ancien ; cf. GAM., épeler. 41. spindje. - Le DL cite l'anc. flam. zwinghe << flagellum linarium >>. M. C. écrit le dernier mo_t << lignarum >> (!). 42. (p. 51) stikê. - Surl'alternancestiké,stitchî,cf.Etym. w. et fr., p. 156-7. 43. surale, oseille ... (fr. dial. surelle, dérivé de seûr). Notez que le DL met un [;] après surelle. M. C. y met une [,] -et me prête une absurdité. Mettons-y un point, et tout .sera dit. 44. (p. 52) tchambèrlouk, robe de chambre (néerl. .sjamberloek). - Lisez sjamberloek, dit M. C. avec raison. Mais il ajoute que le mot néerl. est << selon toute appa!ence, une déformation de !'hybride *sjammerroJ: = robe de -chambre >>. Je signale cette étymologie aux néerlandistes :ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 443 qui auraient foi en VERCOULLIE et FRANCK-VAN WIJCK ! Ce n'est pas seulement sur le wallon que paraît s'exercer la fantaisie du braconnier (cf. n°8 3 et 38). 45. timpe, timplè [lire timplé !]. Note sans intérêt. 46. (p. 54) troufe, tourbe (all. tori). - << Ne convenait-il pas de citer le néerl. et le flamand? >> Je veux bien, mais ce serait du luxe. La tourbe nous est connue par les HautesFagnes, à la frontière allemande. A Büttgenbach même, on dit trouf e en all. dialectal. 47. (p. 55) wêde, prairie (all. Weide, pàturage). M. C. objecte, suivant son habitude : << Et Ie néerl.? Ie mha. ?. I'aha.? le bas-all.? >> - Cette famille appartient surtout à l'arrt de Verviers. Comme l'emprunt est attesté dans les archives liégeoises dès le xve siècle, il doit remonter au mha. D 'autre part, j'ai noté à Waremme wédes (= dépendances d'une maison : jardin, etc.); on peut donc aussi invoquer Ie néerlandais. 48. wilki, blettir (néerl. welken). - << Pourquoi ne pas citer l'all., Ie mha., l'aha.? >> etc. ; suit une note de 13 lignes ! Pur gaspillage. Le DL note ce mot à Glons et à Roclenge seulement : il faut donc s'adresser au néerl. et négliger l'allemand. L'emprunt est certainement moderne et l'idée de faire intervenir l'aha. me paraît plaisante. 49. (p. 56) bot, hotte. - Je m'en tiens à l'article buttis du FEW. Voyez aussi REW 1427; FRANCK-VAN WIJK but. 50. brader, dans !'argot fr. des commerçants de Liège, Verviers, etc., = gaspiller (la marchandise en la vendant à vil prix), gàter (le métier). Ce mot et Ie dérivé braderie nous viennent du rouchi (cf. DELMOTTE, SIGART, HÉCART). En rouchi, Ie sens est plus· général. On dit, à Tournai : brader la tarte pour un ceuf; à Wiers : pièche canjée, pièche hradée ; à Wodecq : bradè une bête (la vendre trop bon 444 JEAN HA US'l' marché); etc. La parenté de brader avec Ie néerl. braden (rötir) paraît bien douteuse à M. C. Elle est pourtant justifiée par Ie flam. bradeeren = verkwisten (ap. ScHUERMANS). Voir au surplus FEW, I 508. 51. (p. 57) djêrî. - Je maintiens que Ie sens est bien : éprouver un appétit déréglé (femme enceinte); en général,. convoiter (tout ce qu'on voit) >>. C'est pîler .qui signifie : << prendre un ton de lamentation (pour se faire donner qch.) >>. Celui qui djêrèye peut pîler, mais on peut aussi djêrî en silence, avoir l'eau à la bouche, tendre la langue. C'est tellement vrai que, comme syn. de djèl f'rè djêrî, on m'a donné souvent djèl f'rè glèter (ou linw'ter) après << je Ie. ferai haver (ou tirer la langue) après >>. Au reste, Ie Gloss. de Fosse-lez-Namur, édité par J. FELLER, traduit djairî, v. intr., << 1. haver (de !'enfant qui fait ses dents) ; 2. désirer ardemment >>. - Le DL dit : <<· Probt de l'all. gären, bouillir, fermenter. >> [M. C. supprime, dans sa citation, Ie prudent. << Probt >>.] Ce gären = fermenter, guiller (bière), bouillir (vin). On sait que Ie fr. guiller vient du néerl. gijlen, t. vieilli, remplacé aujourd'hui par gisten, schuimen (van bier). - Si j'ai préféré gären à (be)gehren, c'est pour plusieurs raisons. D'abord à cause de la qualité de ê wallon,. qui devient très ouvert, rapproché de á, dans les localités ou l'on prononce de même hêrî, hêron, hétî, etc. M. C. dit que, primitivement, l'e des deux verbes (gërn = gähren, gërn = begehren) est de même nature et que ä est une. graphie arbitraire, relativement récente, commode pour la distinction des homonymes. Soit. Pourtant, je trouve. singulier qu'un même son primitif ait évolué différemment. dans la . suite en [ge:r0n, b0ge:r0n] ( 1). Il semble probable qu'à !'origine même il y ait eu certaine différence de. << (1) D'après A. L. CoRIN, Oomment faut-il prononcer l'allemand" p. 68-69. ::ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 445 ·qualité. - L'étym. par gërn (= begehren), que préfère M. C., est celle de GRANDG. ; elle s'impose de prime face à qui fait bon marché de toute nuance phonétique. Si j'ai penché pour gären, c'est aussi parce que djérî, éveillant l'idée d'une appétence violente, déréglée, maladive, me paraît appartenir à la catégorie des mots recélant une idée concrète ; j 'y sens une création métaphorique du type *bullicare < bouger. - De plus, djérî n'a jamais de complément direct; on dira toujours : i djérèye todi; i djérèye so tot ; i djêrèye après. Comment expliquer cette syntaxe si l' on part du transitif << désirer >>? - Enfin, à Glons et à, Bassenge (frontière linguistique au N. de Liège), j'ai relevé une forme curieuse djéler (i djêle so tot ; èle àjéle todi après 'ne saqwè), qui m 'avait d'abord paru une altération peu importante de djêrî. Aujourd'hui, je suis tenté d'y reconnaître Ie néed. gijlen. Et qui pourrait jurer que djêrî n'est pas une déformation de djêler? 52. (p. 57) èclûse, entrave ... (néerl. kluis, cellule d'ermite, emprunté du latin clûsa). - Les questions de M. C. m'étonnent un peu. En effet, il faut distinguer 1. èclûse, empr. du fr. écluse (lat. exdûsa) ; - 2. èclûse << entrave >>, déverbal de ècluss.î entraver (cheval); d'ou, au p. p., ankylosé, perclus. A mon sens, on ne peut guère Ie tirer directement du lat. inclûsa. - Le DL ajoute une note (que M. C. néglige !) sur clussê, s. m. (relevé à Trembleur), crochet à ressort (entre Ie collier et la chaîne du chien, entre Ie seau et la chaîne du puits) ; proprt << petit objet fermé ou qui ferme >>. Je rattache ce diminutif au néerl. kluis qui a dû avoir Ie sens primitif de << chose fermée, fermeture >> et qui a formé èclussî, à l'aide du préf. è(lat. in-) sur Ie type de èclawer, ècwèd'ler, èssèrer, etc. Tout cela me paraît cohérent. Il ne reste plus qu'à découvrir, dans les anciens textes ou dans les parlers du Nord, kluis au sens général ou étymologique, réclamé par Ie groupe liégeois. Comparer harber dans les Etym. w. et fr., p. 140. 446 JEAN RAUST 53. (p. 58) fabite, fauvette. - L'étym. du DL demande des précisions. Le REW tire, du << germ. falvus (falb) >>, Ie fr. fauvette , Ie prov. falb (> it. falbo). Le FEW, III 402,. << germ. *falwa- (falb) >>, dit que les formes latinisées falvus et falbus se rencontrent dès Ie IX e siècle. GAM. part du francique *falw, qui a donné fauve xne s., d 'ou fauvette XIIIe s. - Dans sa note, M. C. estime que, favète existant à Verviers, etc.,<< fdbite semble être purement liégeois >>. Ce. n'est pas exact : fóbite couvre la plus grande partie du Namurois (Andenne, Ciney, Crupet, Namur, Denée, etc.); fäbite Liège, Huy, Latinne, Pellaines, etc. ; fdbète Les Wa-· le:ffes ; fábète Ampsin, Jehay ; enfin (sous l'influence de bètch bec 1 ou des dimin. flam. en -tje 1) fdbètche Geer, Darion ; fdbitche Hognoul (1). Je ne sais trop si best Ie durcissement d'un v primitif. Étant donné l'aire étendue de ce b, il pourrait remonter assez haut et . provenir du type falb (comp. dealbare < fr. dauber). En tout cas, i de la tonique reste inexpliqué .. 54. fade, faude. - Sur l'étymon germ., voy. FEW, III 382 : m. angl. fald (pferch). 55. forpä, avant-pieu (all. Vorpfahl). - Le néerl. voorpaal pourrait être aussi invoqué. Quant à forpále (Laroche) << talon (au jeu de cartes) >>, comment M. C. n'a-t-il pas vu que c'était un mot di:fférent, à ranger sous l'article 2. forpd (littt hors part) du DL? 56. (p. 59) frombähe, baie de l'airelle myrtille (néerl. braambezie, mûre sauvage). - Le DL se contente de donner l'équivalent littéral en néerlandais. Il aurait pu renvoyer à FEW, I 492, v 0 francique *brámbasi, ou même piller eet article. A l'aide du répertoire magistral de W. VON WARTBURG, rien ne serait plus facile que de faire étalage d'érudition. - Dans les provinces de Liège, Namur et Luxem(1) Comp. Ie liég. arontche, arantche « hirondelle » (DL : aronde). ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 447 bourg, !'initiale framb- est aussi commune que fromb-. La. << 'rrübung >> des nasales an, on, est ordinaire chez nous (2). A quoi bon dès lors chercher dans les langues germaniques. des formes avec o au lieu de a, et surtout de nous parlerde la vie de Hraban Maur? 57. fruzi. - Voir BTop. VIII 467, ou je renonce à. l'étymon néerl. vriezen (geler) pour adopter le latin frîgêre. Le FEW, III 789, préfère frîgere (fI-ire), avec moins de, raison, semble-t-il. 58. (p. 60) gruzî, gruger, ronger (néerl. gruizen). Plutöt une forme avec u non encore diphtongué *gruzen. >> M. C. fait la même remarque pour pak'hûse (p. 67), et. rûme (p. 69). Possible, mais non indispensable pour nous. Le w. liég. ne conri.aît pas la diphtongue ui. Même s'il l'entend prononcer et qu'il répète le mot, il négligera le yod" suivant sa phonétique particulière qui a donné Hu, Dèrbu,. bru, fru, frût', nut' , etc., pour Huy, Durbuy, bruit, etc~ . Comparer néerl. geit, sliik = liég. gate, slik. << 59. haksèleû, hache-paille. Voy. leûp. - M. C. croit ou feint de croire que cette formule du DL signifie que leûp entre dans la composition de haksèleû ! Le DL invite, à voir Ie syn. leûp , qui était jadis Ie seul terme connu .. Comment aurait-il fallu s'exprimer? 60. (p. 61) hamelète, coiffe, membrane fretale ... Considérations dénuées d'intérêt. La forme isolée halmète· (Odeur) ne peut être qu'une métathèse de hamelète. 61. härnou-frinne. - M. C. prétend que Ie DL ne donne que trois formes de hdvèrna; or, p. 313, la note finale en cite· cinq autres. - M. C. ajoute : << Il se pourrait,. pense M. Feller, que hárnou-frinne, qui n'a pour lui que l'autorité de GRANDG., signifiàt en réalité l'orne et non Ie ( 1) Signalons un cas typique : à Grandménil, Ie fruit = frombáhye; l'arbuste = framp'hî. t 448 JEAN RAUST ,s orbier >>. Il faut donc que je répète ici (en Ie complétant) Je témoignage du DL, qui corrobore et précise celui de ÜRANDG. Au cours d'enquêtes faites auprès de témoins choisis selon toutes les règles, à la question << sorbier des oiseleurs >> (arbre caractéristique entre tous !), on m'a répondu sans hésiter hárnou-frinne Souxhon-Flémalle, JehayBodegnée; harnou-frinne Amay, Fize-Fontaine, Landenne; árdifrinne Bierwart, Cortil-Wodon. A Couthuin seulement, -on a fait cette distinction curieuse : hdrnou-frinne = •<< sorbier sauvage >>, troki = << sorbier greffé qui porte des trokes (grappes) >>. Le mot est donc bien vivant dans cette partie de la Hesbaye et l'on ne peut en contester de bonne foi ni la forme ni la signification. Reste l'étymologie. Le DL dit simplement : << Composé de frinne (frêne) ; comp. l'all. aberesche >>. Il est probable, pour moi, que hárnou est contracté de *hávèrnou (1), et que Ie composê signifie littt << sorbier-frêne >>, c.-à-d. sorbier sauvage. Quant à árdifrinne, la conjecture compliquée de M. Warland est sans valeITT. Us'agit d'une altération de (h)árnou-frinne, par étymologie populaire : on a cru comprendre << hart de frêne >>. 62. (p. 63) hèyes. - La longue dissertation de M. C. contient des détails curieux pour le folklore; elle n'a rien de convaincant pour l'étymologie. En 1894, A. HoRNING .avait déjà proposé d'expliquer par l'all. (die) heiligen (drei Könige) ; cf. Z. f. rom. Ph., XVIII, 220. 63. (p. 65) hoûse. - Le DL cite le germ. hosa (et non lwse !). << Quel est ce germ.? » demande M. C. - Je lerenvoie à REW 4195. 64. kich'töne (flam. gestaan). - M. C. réclame un diaJecte flamand ou l'on prononce cht et ó. Au point de vue wallon, la chose n'a pàs l'importance que les germanistes .. (1) De hävèrna (sorbier) on aura forgé un adjectif sur Ie type de .cwèrnou cornu, tchärnou charnu. · ÉLÉMENTS G'.ERMANIQUES Dtr DIOTIONN.AIRE LIÉGEOIS 449 lui attribuent. De bons Liégeois prononcent fichtou pour fistou (fétu). Et comment expliquer que l'on dise constamment à Liège crane ( = kraan), trane (= traan), mais kich'tóne (= gestaan), eanifieh'tóne (= verstaan)? Plutöt qu'à une différence dialectale, n'y a-t-il pas, dans les deux ' derni~rs mots (toujours employés par moquerie) une altération ironique, une exagération caricaturale? Et pensez à une << Trübung . >> possible des nasales -an-n' > -on-n' (d'ou -ón') ! ou à des emprunts de date différente ? 65. (p. 66) mastèle est un terme étranger en liégeois. · Il doit nous ·venir de l'ouest--wallon ou du rouchi, directement ou par l'intermédiaire du sud-néerlandais. VERCOULLIE enregistre mastel, ainsi que VAN DALE qui le donne comme sud-néerlandais. - L'étym. du fr. méteil par *mistilium est celle du Dict. Gén. et de BLOCH ; elle est combattue par GAM. et REW. 66. (p. 66-67) näye. - M. EDG. REN.ARD ~ -donné sur ce mot un article documenté dans BTop. IX 201. Sur l'étym. du fr. laie, voy. GAM. et BLOCH. Une parenté entre ces deux termes est peu probable. 67. (p. 68) pêr(e). - Inutile de chercher des équivalents germ. pour le traitement phonétique; (*parricu >) *parcu (= fr. pare, liég. pêr) s'est comporté comme areu (= fr. are, liég. êr). - Il faut corriger une inadv~rtance du DL. Au lieu de germ., lisez gallo-rom. *parrieus. Voyez en effet REW 6253, GAM. pare. 68. plokî. - Le DL s'adresse seulement au bas-all. plokken. La remarque de M. Warland (citée· par M. C.) paraît judicieuse. Il faut sans doute distinguer entre plokî << égrapper >>, du lat. vulg. *piluecare, et le t. techn. plokî << trier (la laine) à la main >>, du m. néerl. plocken, bas-all. plokken (cf. VALKHOFF, 202). 69. (p. 69) scarmoye. - Voir ci-dessus, p. 423. 29 450 JEAN lIAUST 70. (p. 70) sîzèt, tarin (néerl. sijs, all. zeisig). - M. C. voudrait des formes germ. avec î et il en cite plusieurs. Pour nous, ce n'est pas nécessaire. Le wallon a des formes avec î long et avec i bref (sizê Verviers, etc., sizèt Argenteau, etc.). Il lui arrive d'autre part d'allonger une brève (pîpe) ou d'abréger une longue (bizer). 71. slik, chlik, résidus de distillerie ou de brasserie (néerl. slijk, boue ). - M. C. objecte : · << Plutöt mn. slyc, sliec et surtout néerl. slik, westph. slick ; pour la seconde forme wallonne, all. Schlick, limon, vase. >> - Voilà qui ferait de la belle étymologie scientifique, au lieu de vagues approximations? Eh bien, non ! Le mn. n 'a que faire pour un emprunt qui est certainement moderne; non plus que le westph. pour un mot que Liège tient de la Hesbaye; non plus que l' all. Schlicke pour la forme chlik, usitée à Huy et environs (voir l'article suivant). De la critique de M. C., il re~te le néerl. slik, que j'aurais pu citer à cöté ou au lieu de slijk. Mais, en l'espèce, les éléments d'une étym. << scientifique >>, n'est-ce pas 1° de signaler !'origine néerlandaise du mot ; 2° de se fonder pour cela sur la topographie, suggérée suffisamment dans l'article du DL et négligée par M. C.? Au surplus, les dictionnaires néerlandais, VAN DALE, KoENEN et autres, notent slik à cöté de .slijk. Le DL indique la forme la plus connue ; il sous-entend que slik convient mieux pour la lettre. Mais faut-il être si savant pour Ie comprendre? 72. slin, élingue... (all. Schlinge). - << Plutöt mn. slinge, mha. slirige, pour la forme ; pour Ie sens, ça va moins bien ... Il faudrait donc chercher un mot dialectal avec jnitial sl-, qu~ ait Ie sens requis. >> - Reste à savoir 1° si l'emprunt n'ést pas trop moderne pour qu'on parle de mn. ou de mha. ; 2° si notre dialecte ne transpose pas aussi aisément schl- en sl- que sl- en chl-. Aux deux questions, ÉLÉMENTS GERMANIQUES DU D TIONNAIRE LIÉGEOIS 451 surtout à la seconde, on peut répondre affirmativement. Quelques exemples : slam Fléron; chlam Liège, Seraing, Andenne ; - slin Huy; chlin Ciney, Namur, Fosse, Arsimont ; - sloner (rosser) Troisponts, Stoumont ; chloner Cherain; - [aller] slop Waremme; chlop Liège, Namur; chlof Petit-Thier, St-Hubert ; chlof La Gleize, Hompré, Anlier; - snouf Liège; chnouf Namur; - sprêlcler (parler allemand) Stavelot ; sprêh'ler La Gleize ; chprêch'ler Malmedy ; etc. (voir l'article précédent). Il s'agit de mots étrangers, qu'on assimile librement, au gré d'habitudes locales ·ou individuelles. Même variabilité d'ailleurs pour des mots purement wallons : fichtou, à Liège, tend à supplanter fistou (fétu) ; amichtauve (Namur) répond au liég. amistave. Peut-on là-dessus édifier une théorie << scientifique >> de la provenance des mots germaniques? On perçoit bien quelques lueurs, mais on peut augurer que les résultats ne payeront guère la peine qu'on se donnera. 73. (p. 71) spoulbac' (néerl. spoelbak). - Ce mot (spoelbak) est-il connu en néerl. ou seulement en fl.amand? >> - Je ne suis pas germaniste ; mais, si je trouve spoelbak dans VERCOULLIE, GROOTAERS et surtout VAN DALE, j'ose dire que M. C. cherche une querelle d'Allemand. << 74. sta, halte ! arrêtez ! (néerl. staat). - << Plutöt néerl. sta ! En liég., on dit d'ailleurs sta, m'assure-t-on, et sta serait verviétois. >> - Pardon ! sta est bien liégeois. Le DL a cité ses témoins; le on de M. C. manque de << précision scientifique >>. Et puis, à vouloir contester les renseignements dialectologiques du DL, notre braconnier ne dépasse-t-il pas la mesure? 75. strî, étrier (anc. fr. estrieu, d'orig. probt germ.) . Laquelle? >> - Vraiment? Un dictionnaire dialectal doit-il agiter des questions aussi controversées? J'aurais pu ajouter : << Voy. GAM., etc. >> Mais je suppose que le spécia<< 452 JEAN RAUST liste a constamment sous la main BLOCH, GAM., Ie REW et Ie FEW, et d'autres, et d'autres ! 76. strouk. - Voir ma note BTop. II 286. 77. trilié, bougran ... (Comp. tralié et l'all. drillich). << Les deux mots allégués n'ont, semble-t-il, ·rien à faire l'un avec l'autre. >> - Parbleu ! Ma rédaction trop concentrée peut dérouter Ie lecteur profane. J'invite à OOM PARER 1° trilié et tralié : la ressemblance de forme est telle qu'on pourrait les confondre ; - 2° trilié et l'all. drillich, qui s'accordent pour le sens et sans doute pour l'origine. Je ne veux pas dire que trilié vient de l' all. drillich (cela va de soi ! comp. swèlih). Je pense que trilié reproduit approximativement Ie fr. treillis qui, comme l'all. drillich, dérive du lat. pop. * trilîcium, lat. class. trilix (ne pas écrire, comme fait M. C., trillix*, trislicium !). 78. (p. 73) vèrbouc', être fantastique... (all. werbock, homme-bouc). - Le mot all. n'étant pas attesté dans les textes (ce qui est surprenant), il faut écrire *werbock, comme nous y invite M. C., qui donne sur Ie loup-garou une page intéressante. Quant à v initia!, on l'expliquera, non par des raisons de phonétique allemande, mais par l'influence de l'adjectif vert (1). Cette influence n'a pas agi sur wèrleû, voilà tout. 79. (p. 74) wales, remparts (néerl. wal, rempart, du latin vallum). - << Et l'all. Wall? L'ancienne forme weilles fait en tout cas songer au pluriel all. W älle. >> - M. C. est distrait ; il n'a pas vu Ie [?] après la susdite parenthèse ou je signale l'explication traditionnelle, qui me paraît des plus douteuses. Le DL donne ensuite une conjecture : so les W alles devrait s 'interpréter par so l' èwale, c. -à-d. sur (1) Une pasquille liégeoise inédite de 1636, parlant d'un chef de soudards étrangers, l'appelle ei meschan ver dial. - Sur vert-bouc, cf. Wallonia IX 50, X 109; MoNSEUR, Folklore wallon, p. 5. ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 453 la terre nivelée, Ie terre-plein des anciens remparts ayant servi jadis de promenade publique (cf. DL èwal, waler). Je Ie regrette pour l'ingénieuse suggestion de M. C., mais Ie texte de 1565 (<< sur les W eilles >>) confirme mon sentiment. Voy. Gon. ivel; SCHELER, Gloss. de la Geste, v 0 enweile; GRANDG., II 586 (anc. liég. enweile = égale). 80. warbö. - Longue note sur l'étym. possible de l'anglais warble. C'est peut-être très savant, mais cela n'intéresse guère Ie wallon. 81. (p. 77) wätèrzöte, matelote de poisson (néerl. waterzoo). - << Écrivez plutöt wätèrzóde >>. Mais non! Je reproduis simplement l'article de FoRIR, ce que vous ne dites pas. Si j'avais pu prévoir vos chicanes, j'aurais été moins accueillant pour des termes qui n'ont rien de liégeois. << Le mot est-il néerl. ou uniquement flamand? >> Ouvrez donc VAN DALE, KoENEN, VERCOULLIE ! - Mais je fais gräce de la suite. M. Grauls nous en reparlera. 82. wihä, putojs (comp. Ie flam. visse). - Après avoir posé trois questions, M. C. dit : << Il est vrai que M. Haust ne nous invite qu'à comparer. >> - Pardon ! vous omettez le : [Voy. vèheû] qui fait partie de l'étym. du mot. L'article vèheû cite des formes wiheû, vècheû, etc. , et conclut : [Littt << vesseur >>. Voy. wihä]. Les deux articles se complètent et l'on n'a pas Ie droit ç.e les séparer. Dans ma pensée, wika peut venir du même radical que wiheû, avec un su:ffixe di:fférent. Une contamination entre types romans et germaniques est aussi tout à fait vraisemblable. Mais la question << putois >> est trop vaste, trop complexe et trop controversée pour qu'on se permette de l'aborder à propos d'un mot liégeois ! (1). 83. (p. 78) boubêr'rèye, dit M. C., << rappelle étrange(1) Lire, par exemple, une page récente de J. L. PAUWELS, dans les L euvensche Biidragen, 1935, p. 99. 454 JEAN RAUST ment l'all. Büberei >> (!). Plus loin, p. 115, tahourê lui suggère un all. *Dauerregen (!). Cela fait partie de<< suggestions étymologiques nouvelles >> de M. C. Je ne parviens pas à comprendre comment un savant philologue peut s'amuser à de telles billevesées, Sic itur au delà? 84. (p. 79) bouhêye, touffo, ensemble de tiges sortant du même tronc. [aha. bûh (all. Bauch) tronc]. - M. C. objecte : << Plutót de Busch. Voy. w. bouhon >> (!). Il a lu distraitement l'article qu'il prétend << améliorer >>. Il n'a pas vu qu'on y cite la forme nam. bo(y)éye et qu'on renvoie à l'article bahou. S'il l'a vu, il n'a pas compris la leçon qu'il fallait en tirer. GRANDG:, I 68, dérive à la fois bouhêye (cépée) et bouhon (buisson) de l'all. Busch. C'est qu'il lui arrive parfois de sommeiller ... S'il avait réfléchi que les formes nam. sont bo(y)éye et bouchon, il aurait d'emblée corrigé sa méprise. M. C., qui commet la même erreur, nous ramène donc en arrière. - Quant à bahou, nam. bayu (l), que je dérive du même type germ. que bouhêye, M. C. dit que cela << présente des difficultés vocaliques >> (p. 131). On m'a déjà fait la même objection à propos d'ameûr que je tire de humorem. J'ai répondu en citant une dizaine de mots ou la protonique 11, > a (BTop. VIII 453). On pourrait en ajouter bien d'autres : halène chenille (anc. fr. honine, de l'aha. hundin) ; tawîre ou touwîre (DL), tuyère ; awatron (DL), cahoûde (DL) = anc. fr. awotron, couhourde; gazî (Waremme, Jodoigne, Huy, Comblain, Tohogne, etc.) = liég. gozî, gosier; agnon (Namur, Faymonville, etc.) = liég. ognon, oignon; etc. L'ignorance du wallon et de ses lois phonétiques engendre des objections mal fondées (2). (1) bahou, bayu (tige de pomme de terre) est très répandu dans Ie Condroz, Ie Namurois et Ie Luxembourg. - GRANDG., I 331, écrit à tort báhou (Condroz) et ne donne pas d'explication. (2) Pour la protonique humorem > ameûr, comparer rumorem > ÉLÉMENTS GERMANIQUES DU DICTIONNAIRE LIÉGEOIS 455 85. brodale. - M. C. appuie l'une des deux cönjectures du DL : Ie néerl. broddelen gacher. Tous les analogues allemands qu'il cite à foison sont négligeables, puisque ce mot technique n'existe qu'à Glons. - M. C. persiste à croire que brödî (bousiller) peut avoir donné brodale. Je persiste à lui crier casse-cou. 86. (p. 81) buskinter, fêter [qqn]. (Mis pour *bustinker, néerl. besteken). - Cette acception de besteken, donnée par VERCOULLIE, est générale en Belgique flamande; c'est du sud-néerl. (voy. VAN DALE). M. Grauls me dit l'avoir pourtant relevée dans un texte dialectal de Nimègue. L'étym. proposée paraît bizarre à M. C., qui songerait de son cöté à be.-;chenken : proposition inadmissible, puisque schenken a donné Ie liég. sinker. Pour moi, besteken devient tout naturellement chez nous *bustinker (l); puis buskinter, par métathèse réciproque, sous l'influence manifeste de buskèt (bouquet). Quant à · tirer ce mot directement de buskèt (comme faisait GRANDG., I 86), c'est impossible. - Le synonyme nam. bistoker me paraît, lui, venir de bestoken, part. passé de besteken. N otez que buskinter se dit jusqu'à l'Est de Huy, et que b'istoker va de Huy à Houdeng. 87. calfak, truand, vaurien (cf. DL palfak). Le DL ne donne pas d'étymologie. lei, je dois féliciter M. C., d'après qui ce mot archaïque << vient vraisemblablement de l'all. Kalfaktor >>. On peut tenir la chose pour certaine.
54,259
b0805c97af29b8b97a9adfb96883e505_1
French-Science-Pile
Open Science
Various open science
2,012
Les étoiles laser artificielles
None
French
Spoken
1,292
2,257
CAHIER TECHNIQUE COMPRENDRE Les étoiles laser artificielles Costel SUBRAN – Président Directeur Général, Opton Laser International Wilhelm KAENDERS – CEO, Toptica Photonics Françoise MÉTIVIER [email protected] Les progrès récents dans les technologies des lasers de puissance ont permis la « fabrication » d’étoiles artificielles pour la prochaine génération des observatoires astronomiques. Ces étoiles artificielles, proches des champs d’observation, servent de guide pour les mesures astronomiques de grande précision. Photoniques 58 Les contraintes des observations astronomiques au sol Les observations astronomiques à partir des télescopes terrestres sont limitées par la dégradation des images due aux turbulences de l’atmosphère. Ces perturbations limitent la qualité et la résolution des images enregistrées. Ceci a conduit les chercheurs américains à concevoir et à lancer dans l’espace le télescope Hubble, afin de s’affranchir des distorsions atmosphériques. Cette solution, très coûteuse et limitée, ne suffit plus aux progrès récents des télescopes modernes. Parallèlement, les besoins des astronomes pour obtenir, à partir du sol, des images de très haute résolution ont imposé l’utilisation d’un certain nombre de technologies très complexes. Les réalisations récentes ont par exemple conduit à fabriquer des télescopes avec des miroirs de plus en plus grands et lourds, ce qui était inimaginable il y a quelques décennies encore. Plusieurs sociétés européennes parmi lesquelles figurent Schott et la SAGEM, ont développé et fabriquée pour l’ESO (European Southern Observatory) et sa principale base d’observations astronomiques au Chili, des miroirs dont le diamètre de 8,20 mètres reste encore inégalé à ce jour. Ce gain en résolution grâce à des miroirs primaires de grand diamètre a été accompagné par l’implémentation de réseaux complexes composés de plusieurs télescopes. La majorité des télescopes de l’Agence Spatiale Européenne a été installée au sommet des montagnes de Paranal, en plein Désert d’Atacama, emplacement quasi idéal grâce à son atmosphère sèche, et donc claire pour les observations. Néanmoins, même ce positionnement « idéal » est limité par les distorsions du front d’onde causées par les turbulences atmosphériques de la colonne de gaz située au-dessus du télescope. L’optique adaptative, utilisée depuis de nombreuses années, permet de modifier en temps réel, localement et temporairement, le rayon de courbure d’un miroir, situé entre les miroirs primaires et l’image, jusqu’à des fréquences possibles de 1 kHz, afin de permettre la correction de ces distorsions de front d’onde. Ces miroirs déformables sont montés sur des milliers d’actionneurs piézoélectriques discrets à empilement. Cette compensation active des effets de l’atmosphère terrestre a permis aux astronomes d’obtenir des images fabuleuses et de pénétrer encore plus loin les secrets des galaxies. Disposer d’une étoile « guide » Les systèmes d’optique adaptative ont besoin pour fonctionner de se caler sur une étoile brillante. La mesure, à l’aide d’un analyseur, de la déformation du front d’onde de ses sources ponctuelles permet de corriger les images en temps réel. ESO Pourquoi des étoiles laser ? Figure 1. Faisceau laser jaune visible dans le ciel par diffusion Rayleigh avec un long temps d’exposition. 48 www.photoniques.com Article disponible sur le site http://www.photoniques.com ou http://dx.doi.org/10.1051/photon/20125848 Un des schémas arrêté est un système composé d’un oscillateur diode laser en cavité externe stabilisé à 1178 nm présentant moins de 100 kHz de largeur spectrale, dont le faisceau est injecté dans deux amplificateurs Raman à fibre de puissance permettant d’obtenir 20 W de puissance dans deux bras optiques, constituant des faisceaux cohérents, polarisés et très fins spectralement. Les deux faisceaux sont recombinés dans un interféromètre de Michelson à fibre afin de générer une puissance de 36 W à 1178 nm. Une cavité résonnante réalise ensuite un doublage de fréquence et convertit la longueur d’onde à 589 nm avec une efficacité supérieure à 75 %. Le laser final est un laser jaune de plus de 20 W de puissance, accordable sur 30 GHz, avec une largeur de raie inférieure à 1 MHz. Ce laser sera monté dans le télescope VLT (Very Large Telescope) Yepun UT4 de l’ESO à Cerro Paranal au Chili en 2013. Ces étoiles de référence ont été pendant longtemps des étoiles brillantes naturelles (NGS - Natural Guide Stars). Malheureusement, ces étoiles « guides » occupent uniquement quelques pourcents du ciel et ne sont disponibles que dans quelques segments du ciel nocturne. Comment trouver une autre étoile de référence, une étoile proche du champ d’observations, une étoile voisine très brillante, une étoile « guide » ? Pour répondre à ces préoccupations, l’idée a été de créer des étoiles artificielles à l’aide des lasers. Ces nouveaux guides, connus sous le nom de LGS (Light Guide Stars), peuvent être ainsi produits dans n’importe quelle direction dans le ciel, donc dans la direction de l’objet à observer, selon les besoins des astronomes (figure 1). Comment produire ces étoiles ? L’atmosphère terrestre contient dans la couche nommée mésosphère, à des altitudes de 90 à 110 km, une concentration assez élevée d’atomes métalliques légers de sodium. La zone semble avoir été formée par des débris cosmiques prove- nant des météorites. Cette couche va être utilisée comme « écran de projection » vers laquelle sera dirigé un faisceau laser à une longueur d’onde de 589 nm, longueur d’onde correspondant à la raie D2 du sodium et qui génère, en un point situé à cette altitude, et grâce à son interaction avec les atomes de sodium, une fluorescence très intense, similaire à une étoile. Afin d’obtenir une étoile extrêmement brillante, donc un flux lumineux suffisamment fort, les lasers utilisés doivent être des lasers de puissance supérieure à 20 W, émettant à 589 nm avec une largeur de raie permettant de s’accorder sur la structure hyperfine des atomes de sodium (voir encadré). Les télescopes équipés d’étoile guide laser sont prévus également avec des systèmes de détection des avions, civils ou militaires, afin d’éviter leur illumination L’installation complète de quatre systèmes d’étoiles laser permet ainsi de compenser les turbulences atmosphériques dans un champ très large d’observation. Cette technologie sera aussi installée sur la prochaine génération du téléscope européen, le « European Extremely Large Telescope » équipé d’un miroir de 42 mètres. Les limitations des étoiles laser Maintenant largement utilisées sur les grands télescopes, les étoiles laser présentent néanmoins des limitations qui vont être cruciales pour leur utilisation sur les télescopes extrêmes en cours de définition. Parmi ces limitations, on peut citer la nature même de la couche de sodium, qui ne représente qu’un dixième de la distance terre-étoile laser, les inhomogénéités spatiales et les fluctuations temporelles de la concentration en sodium. Parallèlement, de nouvelles aberrations comme l’agrandissement du spot, ou les erreurs de focalisation ou de détermination du mouvement global de l’étoile (tilt) deviennent prépondérantes. L’utilisation de batteries d’étoiles ou de lasers impulsionnels permet en partie de s’affranchir de ces limitations. Notons que le développement d’étoiles polychromatiques, permettant de solliciter deux transitions du sodium, un temps présenté comme une des solutions au problème du tilt, a été finalement abandonné il y a un an. L’utilisation de lasers impulsionnels générant de fortes puissances crêtes se heurte au phénomène de saturation de la transition des atomes de sodium et conduit les équipes en charge du développement des sources lasers capables de générer des étoiles laser à se tourner vers des solutions originales : lasers mode-bloqués à fort taux de répétition (typiquement 80 MHz) ou lasers sans mode. Ce dernier type de laser peut augmenter l’intensité de l’étoile laser d’un facteur 5 par rapport à un laser monomode et d’un facteur 2,5 par rapport à un laser monomode suivi d’un système de modulation de phase. Remerciements : Merci à Jean-Paul Pique (Université Grenoble 1/CNRS, LIPhy UMR 5588) pour ses conseils et son expertise. Référence Jean-Paul Pique, Vincent Fesquet, Sylvie Jacob, “Pulsed frequency-shifted feedback laser for laser guide stars: intracavity preamplifier”, Applied Optics, Vol. 50, No. 33 (20 November 2011). Photoniques 58 Un exemple de laser utilisé pour générer des étoiles laser CAHIER TECHNIQUE COMPRENDRE www.photoniques.com 49.
52,845
tel-04390102-JOUANVol3Illustrations.txt_4
French-Science-Pile
Open Science
Various open science
null
Les Corbineau, une famille d'architectes dans le Grand-Ouest français au XVlle siècle. Art et histoire de l'art. Nantes Université, 2023. Français. &#x27E8;NNT : 2023NANU2019&#x27E9;. &#x27E8;tel-04390102&#x27E9;
None
French
Spoken
7,737
15,217
• Figure 18 : Détail des décors peints à fresque aux encadrement intérieurs de fenêtres de l’appartement du niveau R+2 du pavillon nord du château de Brissac. Cl. Jouan Jessy, 2019....................................................15 • Figure 19 : Vue de la charpente de l’aile de la galerie du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900041NUCA...........16 • Figure 20 : Détail d’un poinçon retroussé et du système d’assemblage des poutres faîtières de la charpente de l’aile de la galerie du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900045NUCA & IVR52_20214900051NUCA............16 • Figure 21 : Vue de la salle haute située au niveau N+5 du pavillon du grand escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900061NUCA................................................................................................17 • Figure 22 : Vue de l’entrée depuis un escalier en bois et de la cheminée de la salle haute du niveau R+5 située dans le pavillon du grand escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine- et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900063NUCA.................................17 • Figure 23 : Vue de la grande galerie du château de Brissac située • Figure 24 : Détail du plafond peint à la française de la grande galerie du château de Brissac, vers 1615-1625. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900149NUCA................................................................................................ • Figure 25 : Scènes, cartouches, ornements sculptés et dorés du plafond peint à la française de la grande galerie du château de Brissac, vers 1615-1625. Cl. Jouan Jessy 2018..........................................................19 • Figure 26 : Exemple de boiserie de plafond située dans les encadrements des baies de la grande galerie du château de Brissac. Décor peint à faux caissons, armes des Gouffier et d’Ongnie et motifs végétaux, Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900146NUCA................................................................................................20 • Figure 27 : Vestibule d’entrée du château de Brissac avec sur la gauche, une porte surmontée des armes des Cossé conduisant à la seconde grande cuisine. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900135NUCA..............................................20 • Figure 28 : Porte du vestibule d’entrée du château de Brissac conduisant à la grande salle du niveau R. Cl. • Figure 29 : Vue du vestibule d’entrée et des accès vers le grand escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900134NUCA................................................................................................22 • Figure 30 : Palier au niveau R du grand escalier et du vestibule d’entrée du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900138NUCA................................................................................................22 • Figure 31 : Porte palière du niveau R conduisant vers l’appartement du grand corps de logis méridional depuis le grand escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900128NUCA & IVR52_20214900137NUCA............23 • Figure 32 : Descente vers les caves depuis le palier au niveau R du grand escalier du château de Brissac. Cl. • Figure 33 : Portes du vestibule du niveau R+1 du grand escalier conduisant vers la grande salle. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900161NUCA................................................................................................24 • et-Loire aire du atrimoine des Pays de la Loire, 2021, VR 4900142 • Figure 35 : Porte palière du grand escalier au niveau R+1 conduisant vers le grand appartement. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900143NUCA & IVR52_20214900144NUCA..........................................................25 • Figure 36 : Plafonds peints des grands appartements du château de Brissac. Cl. Jessy Jouan, 2023...............26 • Figure 37 : Volées et repos du grand escalier du château de Brissac situé entre les niveaux R+1 et R+2. Cl. augin épartement Maine , Invent ................................................................................ • Figure 38 : Repos entre les niveaux R+1 et R+2 du grand escalier du château de Brissac. Détail d’une voûte plate et d’une clé aux armes de la famille de Cossé. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900169NUCA & IVR52_20214900166NUCA.................................................................................................27 • Figure 39 : Vue du palier du niveau R+2 et des portes conduisant vers la salle vestibule. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900180NUCA................................................................................................28 • Figure 40 : Vestibule du niveau R+2 du château de Brissac. Cl. Armelle Maugin, Département du Maine-etLoire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900174NUCA........................28 • Figure 41 : À gauche, porte conduisant depuis le vestibule vers une ancienne grande salle aujourd’hui petit théâtre au niveau R+2. À droite, porte palière située au niveau R+2 du grand escalier située château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900173NUCA & IVR52_20214900181NUCA..........................................................29 • Figure 42 : Terminaison du grand escalier du château de Brissac entre les niveaux R+2 et R+3. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900175NUCA................................................................................................29 Figure 43 : Trophée armorié fiché dans l’angle nord-est du pavillon nord du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900085NUCA................................................................................................30 • Figure 44 : Détail d’un angle du grand corps de logis méridional du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900120NUCA................................................................................................30 • Figure 45 : Face sud du grand corps de logis méridional. La travée extérieure gauche présente un désaxement. • Figure 46 : Détail de la face sud de l’aile de la galerie sur la terrasse Bonnivet avec en arrière-plan le pavillon nord. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900114NUCA................................................................................................31 • Figure 47 : Élévations sud de la plateforme du château de Brissac avec à gauche, la partie moderne et à droite, la partie médiévale. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900104NUCA..............................................................................32 • Figure 48 : Élévation orientales du grand corps de logis méridional et du pavillon d'escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900072NUCA..........................................................................................32 • Figure 49 : Détail des travées de la face orientale du grand corps de logis méridional du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900077NUCA................................................................................................33 • Figure 50 : Détail de la composition des élévations du pavillon du grand escalier du château de Brissac. Cl. • Figure 51 : Détail de la composition des élévations, aux derniers niveaux, du pavillon du grand escalier du château de Brissac. Cl. Armelle Maugin, Département du Maine-et-Loire, Inventaire du Patrimoine des Pays de la Loire, 2021, IVR52_20214900075NUCA..............................................................................35 • Figure 52 : Chapiteau ionique de la façade méridionale, au niveau pavillon du grand escalier, du château de Brissac, vers 1620-1625. Cl. Jessy Jouan, 2019...........................................................................36 • Figure 53 : Ordre corinthien de la façade méridionale au niveau du pavillon du grand escalier du château de Brissac, vers 1620-1625. Cl. Jessy Jouan, 2019...........................................................................36 • Figure 54 : Relevé schématique de l'escalier du pavillon nord du château de Brissac. Reliant le pavillon à l'aile de la galerie, le relevé montre les différences de niveaux auxquelles doit s'adapter l'escalier. DAO Virginie Desvigne, Inventaire du Patrimoine des Pays de la Loire, 2019.........................................................37 • Figure 55 : Restitution du projet suppos é conçu au début du XVIIe siècle pour le château de Brissac . Publié dans Guillaume Jean « Voir l’architecture », dans Le grand atlas de l’architecture mondiale, Paris, Encyclopedia Universalis, 1981, p. 12......................................................................................................38 • Figure 56 : Pierre La Cuisse (architect e ), Château de Viz ille, reconstruit pour François de Bonne à partir de 1602, Isère. La terrasse portait initialement un long corps de logis contenant une galerie, aujourd'hui détruit. Source : Internet.........................................................................................................................38 • Figure 57 : Pierre Lescot, Pavillon du roi du palais du Louvre, 1553-1556. Jacques Ier Androuet du Cerceau, Les plus excellents bastiments de France, s.n, 1576-1579, vol. 1......................................................39 • Figure 58 : Pierre Lescot, Élévations du château de Vallery (Yonne) avec au centre, le gros pavillon d’angle, 1550-1555/1556. Jacques Ier Androuet du Cerceau, Les plus excellents bastiments de France, s.n, 1576-1579, vol . 1............................................................................................................................39 • Figure 59 : Élévations sur jardin du château de Lanquais (Dordogne) reconstruit partiellement vers 1570. Source : Internet ............................................................................... ................................ 40 • Figure 60 : Salomon de Brosse, Palais du Luxembourg commandé par Marie de Médicis, Paris, à partir de 1615. Plan publié par Jean Marot, Recueil des plans, profils et élévations de plusieurs palais, chasteaux, églises..., s.n, s.d (avant 1659).............................................................................................41 • Figure 61 : Jacques Ier Androuet du Cerceau, projet XXXVI, Livre d’architecture auquel sont contenues diverses ordonnances de plants et élévations de bastiments..., Paris, s.n., 1582, s.p................................41 • Figure 62 : Jacques Bougier, dit Boyer de Blois, Élévations sur cour et sur jardin du château de Cheverny (Loiret-Cher), 1624-1634. Source : Internet.....................................................................................42 • Figure 63 : Andrea Bregno et Bramante, Palazzo della Cancelleria, Rome, 1486-1513. Source : Internet......43 • Figure 64 : Élévations sur jardin du château d'Oiron (Deux-Sèvres) avec à gauche, à l'angle du pavillon du roi, les armes des Gouffier et à droite, le même motif laissé en attente, 1620-1642. Source : Internet.................43 • Figure 65 : Jacques Ier Androuet du Cerceau, Élévations sur jardin du château de Madrid construit dans le bois de Boulogne (1527-1540), dans Les plus excellents bastiments de France, s.n, 1576-1579, vol. 1. Les pavillons des angles portes les armes du roi en trophée à la manière des palais urbains italiens................................44 • Figure 66 : Louis Métézeau, Élévation sur la Seine de la galerie du bord de l’eau du Palais du Louvre, Paris,1595-1610. Source : Internet..........................................................................................45 • Figure 67 : Jacques Ier Androuet du Cerceau, Élévations sur l'arrière du c • Figure 68 : Architecte inconnu, Château de la Granges, Yerres (Yvelines), édifié à partir de 1617 pour Charles Duret. Source : Internet.......................................................................................................46 • Figure 69 : François Mansart, Élévations sur jardin du château de Balleroy (Calvados), 1625-1630. Source : Wikimédia commons.........................................................................................................46 • Figure 70 : Jacques Ier Androuet du Cerceau (attribué à), Façade sur jardin du château de Charleval, commencé en 1570 et arrêté avant 1574. Gravure publiée dans Jacques Ier Androuet du Cerceau, Les plus excellents bastiments de France, s.n, 1576-1579, vol. 1..............................................................................47 • Figure 71 : Philibert de L'Orme, Palais des Tuileries, à partir de 1564. Gravure publiée dans Jacques Ier Androuet du Cerceau, Les plus excellents bastiments de France, s.n, 1576-1579, vol. • Figure 72 : Jacques Ier Androuet du Cerceau, Détail d'une lucarne dessin de la partie centrale de la façade de l'aile ouest sur le jardin, crayon, encre noire, vélin, 1572, British Museum .................48 • Figure 73 : Pierre Lescot, Vue sur la cour carrée de l'aile dite Lescot du palais du Louvre, 1546-1551. Détail du premier niveau de l'avant-corps nord. Cl. Jessy Jouan, 2022.........................................................48 • Figure 74 : Sebastiano Serlio, Cour intérieure du château d'Ancy-le-Franc (Yonne), 1538-1546................49 • Figure 75 : Jacques Ier Androuet du Cerceau, Modèles de portes dans Second livre d'architecture, Paris, Chez A. Wendel, 1561, fol. 38 et 39 ............... ................................................ ................................49 • Figure 76 : Du Ry Charles (attribué à), Façade du château de Coulommiers, Album Du Ry / De Brosse, Étude d’architecture : portails, cheminées, lucarnes, vers 1613-1615, Musée du Louvre, Département des arts graphiques, Inv° RF 5946, 42, fol°20 v°..................................................................................50 • Figure 77 : Claude Chatillon, Vue perspective du jardin de l'hôtel de Nevers édifié à partir de 1580, dans Topographie Françoise, 1655, INHA FOL EST 104..............................................................50 • Figure 78 : à gauche : Extrait d’une planche représentant Blavet et sa citadelle, Allain Mannesson-Mallet, Les travaux de Mars ou L’art de la guerre, Tome 1, Paris, Chez D . Thierry, 1684 -1685, p. 353 ..........................51 • Figure 79 : à droite : François de la Pointe (?), Plan de la citadelle de Port -Louis, seconde moitié du XVIIe siècle, encre de Chine et aquarelle, 35 x 23,4 cm, BNF département de Estampes et photographie, EST VA- 56 (3)...............................................................................................................................51 • Figure N°80 : Plan de la citadelle de Port-Louis dressé en 1792, Bibliothèque Nationale de France, 23 x 32 cm, GED 1444......................................................................................................................51 • Figure 81 : Vue aérienne de la citadelle de Port-Louis dans son état actuel. Transformée aujourd’hui en musée national de la Marine et de la Compagnie des Indes.......................................................................52 • Figure 82 : Élévation du portail de la demi-lune de la citadelle de Port-Louis, années 1620. Source : Wikimédia commons.......................................................................................................................53 • Figure 83 : Élévation du portail d'entrée dans la citadelle. Le bâtiment est élevé par les espagnols à la fin du XVIe siècle, repris sous Jacques Corbineau et les trophées resculptés en 1739. Source : Wikimédia Commons.............................................................................................................................................................53 • Figure 84 : Vue de la face sud de l'église Saint-Gildas d'Auray. Source. Élévation méridionale.........................................................................................................59 • Figure 95 : à gauche : Plan du rez-de-chaussée du Parlement de Bretagne avec en rouge, les parties édifiées par Jacques Corbineau entre 1626 et 1631. Musée de Bretagne, Photographie du plan rez-de-chaussée du Parlement de Bretagne réalisé par Salomon de Brosse en 1618, plan aujourd’hui détruit. M0212_AG-956-2- 187-Ubis....60 • Figure 96 : à droite : Plan du premier étage du palais du Parlement avec en rouge, la partie construite par Jacques Corbineau entre 1626 et 1631. Musée de Bretagne, Photographie du plan du premier étage du Parlement de Bretagne réalisé par Salomon de Brosse en 1618, plan aujourd’hui détruit. M0212_AG-956-2- 187-U.......60 • Figure 97 : Plan du rez-de-chaussée du Parlement de Bretagne avec en rouge, les parties édifiées par Pierre Corbineau entre 1646 et 1655. Musée de Bretagne, Photographie du plan rez-de-chaussée du Parlement de Bretagne réalisé par Salomon de Brosse en 1618, plan aujourd’hui détruit. M0212_AG-956-2-187-Ubis.......61 • Figure 98 : Plan du premier étage du Parlement de Bretagne avec en rouge les parties construites par Pierre Corbineau entre 1646 et 1655. Les salles en jaune sont celles ayant fait l’objet de travaux de reprise par l’architecte, idem pour les portes en bleu. Musée de Bretagne, Photographie du plan du premier étage du Parlement de Bretagne réalisé par Salomon de Brosse en 1618, plan aujourd’hui détruit. M0212_AG-956- -U............ • Figure 99 : Plan du premier étage du Parlement de Bretagne avec en rouge, les corps de logis dont la charpente est posée sous la direction de Pierre Corbineau (1646-1655). Musée de Bretagne, Photographie du plan du premier étage du Parlement de Bretagne réalisé par Salomon de Brosse en 1618, plan aujourd’hui détruit. • Figure 100 : Élévations de la face septentrionale de l'aile nord du palais du parlement de Bretagne. Partie édifiée par Jacques Corbineau entre 1626 et 1631. Cl. Jessy Jouan 2020......................................................62 • Figure 101 : Détail de trois travées de la façade nord du Parlement de Bretagne édifiées par Jacques Corbineau (1624-1631), Cl. Jouan Jessy, 2020.........................................................................................63 • Figure 102 : Détail de la jointure entre l’aile nord et l’extrémité de l’aile ouest sur la face nord du Parlement de Bretagne édifiées par Jacques Corbineau (1624-1631), Cl. Jouan Jessy, 2020.....................................63 • Figure 103 : Façade orientale (face à l'ancien couvent des cordeliers) du parlement de Bretagne. Partie construite par Tugal Caris (1640-1645) et reprise par Pierre Corbineau (1646-1655). Cl. Jessy Jouan, 2020.......64 • Figure 104 : Vue de la cour intérieure du Parlement de Bretagne (1618-1655), Source : Wikimédia Commons.64 • Figure 105 : Partie centrale de la façade sud du Parlement de Bretagne édifiée par Pierre Corbineau (16461655), Cliché, Jouan Jessy, 2020............................................................................................65 • Figure 106 : Travées du pavillon gauche de la façade sud du Parlement de Bretagne édifié par Pierre Corbineau (1646-1655), Cliché, Jouan Jessy, 2020....................................................................................65 • Figure 107 : Travée latérales de la façade sud du Parlement de Bretagne édifiée par Pierre Corbineau (16461655), Cliché, Jouan Jessy, 2020............................................................................................66 • Figure 108 : Galerie à arcades du rez-de-chaussée du Parlement de Bretagne. Cl. Jouan Jessy, 2019............67 • Figure 109 : Galerie de la Grand Chambre du Parlement de Bretagne. Cl. Jouan Jessy, 2019.....................67 • Figure 110 : Salle des pas perdus, dite salle des procureurs du Parlement de Bretagne. Cl. Jouan Jessy, 2019...68 • Figure 111 : Tour du connétable et muraille vers le bastion dit, éperon de la garenne, des remparts de Vannes. Source : Wikimédia Commons..............................................................................................69 • Figure 112 : Vue du bastion à orillons dit, l'éperon de la garenne, des remparts de Vannes. Source : Wikimédia Commons......................................................................................................................69 Figure 113 : Murailles vers la tour du connétable des remparts de Vannes. Source : Wikimédia Commons......70 • Figure 114 : Grandes voûtes de la nef de la cathédrale Saint-Pierre de Nantes vers la tribune d’orgue. La travée de la grande baie axiale (fin XVe siècle) a servi de modèle aux travées de la nef. Cl. Jouan Jessy 2018................71 • Figure 115 : Vue du bras sud du transept de la cathédrale Saint-Pierre de Nantes édifié entre 1631 et 1637. La coursive est réalisée dans le courant des années 1650 par Tugal Caris. Cl. Denis Pillet et Patrice Giraud, Inventaire du Patrimoine des Pays de la Loire, 1991, IVR52_19914401104V.........................................72 • Figure 116 : Arcs boutants du mur gouttereau sud de la cathédrale Saint-Pierre de Nantes. Cl. Patrice Giraud et Denis Pillet, Inventaire du Patrimoine Région Pays de la Loire, 1991, IVR52_19914401602XA..................73 • Figure 117 : Arcs boutants du mur gouttereau nord de la nef de la cathédrale Saint-Pierre de Nantes. Cl. Patrice Giraud et Denis Pillet, Inventaire du patrimoine Région Pays de la Loire, 1991, IVR52_19914401078V........73 • Figure 118 : Sommet du mur gouttereau sud de la nef de la cathédrale Saint-Pierre de Nantes avec sa balustrade mise en œuvre entre 1626 et 1631. Cl. Patrice Giraud et Denis Pillet, Inventaire du Patrimoine des Pays de la Loire, IVR52_19914401584XA.............................................................................................74 • Figure 119 : Détail de balustrade posée au sommet du mur gouttereau sud de la nef de la cathédrale SaintPierre de Nantes (1626-1631). Cl. Patrice Giraud et Denis Pillet, Inventaire du Patrimoine des Pays de la Loire, IVR52_19914401588XA....................................................................................................74 • Figure 120 : Jacques Ier Androuet du Cerc eau , « Balustrades ou petits nielles (2) », recueil factice, s.d, bibliothèque de l’INHA, 4 res° 88 (2), planche 35........................................................................75 • Figure 121 : Figures grotesques anthropomorphes installées sur les rampants du grand pignon du bras sud du transept de la cathédrale (1631-1637). Cl. Patrice Giraud et Denis Pillet, Inventaire du Patrimoine des Pays de la Loire, IVR52_19914401583XA..........................................................................................75 • Figure 122 : Figures de grotesques ou mascarons servant de culot portant les consoles du Pont-Neuf de Paris (1578-1607). Cl. • Figure 131 : Vue de la nef et du bas-côté sud de la chapelle des minimes de Nantes. Source : Le Voyage à Nantes, 360image.fr...........................................................................................................83 • Figure 132 : Vue de la nef et du bas-côté sud de la chapelle des minimes de Nantes. Source : Le Voyage à Nantes, 360image.fr...........................................................................................................83 • Figure 133 : Façade de l’église des minimes de Rennes (1625-1631) dans Plan de la vieille ville ou cité, ville neuve, et nouvelle ville de Rennes, capitale de Bretagne, dit Plan Hévin, Rennes, Landais et Oberthur imprimeur, 1665, 46,9 x 58,2 cm, papier vergé, n° inv. 2019.0000.3600............................................................84 • Figure 134 : Vue depuis la cour du corps de logis du château de Beaumanoir à Évran (Côtes-d’Armor), Cl. Norbert Lambart, Inventaire du Patrimoine de la Région Bretagne, 2011, IVR53_20112200741NUCA.........85 • Figure 135 : Vue de la cour et des corps qui la borde du château de Beaumanoir à Évran (Côtes-d’Armor), Cl. • Figure 136 : Vue du portail d’entrée du château de Beaumanoir à Évran (Côtes-d’Armor), Cl. Norbert Lambart, Inventaire du Patrimoine de la Région Bretagne, 2011, IVR53_20112200712NUCA...............................86 • Figure 137 : Vue du pavillon sud du château de Beaumanoir à Évran (Côtes d’Armor), Cl. Norbert Lambart, Inventaire du Patrimoine de la Région Bretagne, 2011, IVR53_20112200711NUCA..............................86 • Figure 138 : Détail du couronnement du pavillon nord du château de Beaumanoir à Evran (Côtes-d’Armor), Cl. Norbert Lambart, Inventaire du Patrimoine de la Région Bretagne, 2011, IVR53_20112200713NUCA....87 • Figure 139 : Lucarnes de l’aile nord du château de Beaumanoir à Evran (Côtes-d’Armor), Cl. Norbert Lambert, Inventaire du Patrimoine de la Région Bretagne, 2011, IVR53_20112200721NUCA...............................87 • Figure 140 : Vue du présidial d’Angers avec son portail d’entrée sur la rue Pocquet de Livonnière. Reproduction d’une photographie ancienne. Inventaire du Patrimoine de la Région Pays de la Loire, 1975, IVR52 _ 19754902371X_2.............................................................................................................88 • Figure 141 : Emplacement du présidial, dit également Palais Royal, au XVIIIe siècle. Dominique Letellier et Olivier Biguet, Inventaire du patrimoine des Pays de la Loire, 2003, IVR52_20034900210A4....................88 • Figure 142 : Portails du couvent des Jacobins et du présidial d’Angers remontés dans les jardins de l’hôpital Saint-Jean à Angers. Cl. Jouan Jess • Figure 143 : Portail du présidial d’Angers remonté dans les jardins de l’hôpital Saint-Jean d’Angers, Cl. an Jessy ......................................................................................................................89 • Figure 144 : Haut gauche : Du Ry Charles (attribué à), Album Du Ry / De Brosse, Étude d’architecture : portails, cheminées, lucarnes, vers 1613-1615, Musée du Louvre, Département des arts graphiques, Inv° RF 5946, 45, fol°8 r°..........................................................................................................................90 • Figure 145 : Haut droite : Du Ry Charles (attribué à), Album Du Ry / De Brosse, Étude d’architecture : portails, cheminées, lucarnes, vers 1613-1615, Musée du Louvre, Département des arts graphiques, Inv° RF 5946, 45, fol°9 r°..........................................................................................................................90 • Figure 146 : Bas : Du Ry Charles (attribué à), Album Du Ry / De Brosse, Étude d’architecture : portails, cheminées, lucarnes, vers 1613-1615, Musée du Louvre, Département des arts graphiques, Inv° RF 5946, 45, fol°22 r°........................................................................................................................90 • Figure 147 : Auteur Inconnu, Portail d'hôtel particulier, n°15 rue du Canal, Angers, Maine-et-Loire, premier quart du XVIIe siècle. Cl. • Figure 148 : Portail d'un hôtel particulier, n°26 rue de l'hôtel de Ville, Beaufort-en-Vallée, Maine-et-Loire, premier quart du XVIIe siècle. Source : Google Street View............................................................91 • Figure 149 : Charles Corbineau, Retable du maître-autel de la chapelle du couvent de la Baumette, Angers, 1615-1616. Cl. Jessy Jouan, 2020............................................................................................92 • Figure 150 : Charles Corbineau, Détail du couronnement du retable du maître-autel de la chapelle du couvent de la Baumette, Angers, 1615-1616. Cl. Jessy Jouan, 2020..............................................................93 • Figure 151 : Auteur inconnu, Assomption de la Vierge d’après l’Assomption Panciaticchi d’Andrea del Sarto (1522), début XXe siècle, retable du maitre-autel de la chapelle du couvent de la Baumette, Angers. Cl. Jessy Jouan, 2020.....................................................................................................................93 • Figure 152 : Auteur inconnu, Descente de croix, peinture sur toile, non datée, en place derrière l’Assomption de la Vierge. Cliché des années 1950........................................................................................94 • Figure 153 : Antonio da Sangallo, Retable de l'autel de la chapelle Cesi, 15245-1530, église Santa Maria della Pace, Rome. Cl. Jessy Jouan, 2019..........................................................................................94 • Figure 154 : Francesco da Volterra et Carlo Maderno, Chapelle Salviati, 1595-1603, église San Gregorio Magno, Rome..................................................................................................................95 • Figure 155 : Auteur inconnu, Retable de la chapelle seigneuriale de Boussay, église paroissiale de Boussay, Indre-et-Loire, vers 1596. Cl. Ministère de la Culture...................................................................95 • Figure : Auteur inconnu, Ancien retable de la chapelle seigneuriale du château de la Poulinière aujourd'hui remonté dans l'ancienne église paroissiale de Saint-Florent-Le-Vieil, Maine-et-Loire, années 1620 (?). Cl. Jessy Jouan 2023.....................................................................................................................96 • Figure 157 : A gauche : Jean Bullant, Chapiteau corinthien d’après ceux du Panthéon de Rome, Planche E III, publié dans Reigle generalle d’architecture, Paris, Jérôme de Marnef et Guillaume Cavellat, 1564...............97 • Figure 158 : Jacques Ier Androuet du Cerceau, Planches de détails d'ordres d'architecture insérée dans le recueil factice Détails d’ordres d’architecture, s.d., Paris, Bibliothèque de l’INHA, 4° RES 88 (1).........................98 • Figure 159 : Bullant, Jean, Planches additionnelles sur les ordres antiques dans Reigle generalle d’architecture, Paris, Jérôme de Marnef et Guillaume Cavellat, 1564, Paris, exemplaire de l’ENSBA, cote, Les 1537............98 • Figure 160 : Vue intérieure de l'église paroissiale de Sainte-Suzanne, Mayenne. Cl. François Lasa, Inventaire du Patrimoine des Pays de la Loire, 2008, IVR52_20085301091NUCA...............................................99 • Figure 161 : Étienne Corbineau (?), Bénitier en marbre noir sans culot. Église paroissiale de Sainte- Suzanne, Mayenne. Cl. • Figure 165 : Pierre-Aimé Renous, Plan d’ensemble du collège de Laval, 150 x 86cm, 1847-1863. En bleu : le niveau des caves. En rouge, le la chapelle conventuelle et le chœur des religieuses. En vert, les parties communes des religieuses situées au rez-de-chaussée. En jaune, les cellules et dortoirs installés au premier étage. Arch. • Figure 166 : Hawke architecte, Ferme de la charpente restaurée et coupe de la charpente actuelle, collège de Laval , 1890 . Arch. Mun. de Laval, 1 Fi 121.............. ................ ................................................ 103 • Figure 167 : Pierre-Aimée Renous, Projet d’élévation pour l’agrandissement de l’ancien couvent des ursulines de Laval, 1841. Arch. Mun. de Laval 1 Fi 602...........................................................................103 • Figure 168 : Portail de l’ancienne chapelle du couvent des ursulines de Laval. Photographie du début du XXe siècle publiée dans Richard, Jules-Marie, « Notes sur quelques artistes Lavallois du XVIIe siècle : les constructeurs de retables », dans Bulletin de la commission historique et archéologique de la Mayenne, Laval, Goupil Imprimeur, t.XXII, 1906, p. 17-38................................................................................104 • Figure 169 : Plans schématiques du cloître de l’ancien couvent des ursulines de Laval avec le sens des montées, par niveau, de chacun des escaliers. DAO Jessy Jouan, 2021.........................................................105 • Figure 170 : Relevés schématiques de l’ancien couvent des ursulines de Laval : coupe latérale du pavillon d’escalier nord-est, coupe latérale de l’ancienne chapelle avec ferme principale, dessin d’une ferme secondaire et détails d’assemblages. Virgini e Desvigne , Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52 _2019 530662 NUDA................................................................................................106 • Figure 171 : Cour intérieure vers la chapelle conventuelle du l’ancien couvent des ursulines de Laval, actuel Lycée Ambroise Paré. Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52 • Figure 172 : Vue de la cour intérieure en direction de l’aile du chœur et du réfectoire des religieuses ursulines. • Figure 173 : Pierre-Aimé Renous, Cour des classes du Lycée Ambroise Paré, 1842-1846. Son architecture copiait alors celle de l’ancien cloître des religieuses. Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301127NUCA................................................................................107 • Figure 174 : Elévations sud-ouest sur la grande cour du lycée des anciens bâtiments avec, à gauche, l’agrandissement des années 1842-1846 et à droite, une aile de l’ancien cloître. Cl. Yves Guillotin, Inventaire du patrimoine des Région Pays de la Loire, 2019, IVR52_20195301121NUCA........................................108 • Figure 175 : Départ de l’escalier nord-ouest de l’ancien couvent des ursulines de Laval. Cl. Yves Guillotin, Inventaire du patrimoine des Pays de la Loire, 2019, IVR52_20195301088NUCA................................108 • Figure 176 : Montée de l’escalier nord-ouest et son système d’arc surbaissés portant les volées. Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301091NUCA...................109 • Figure 177 : Terminaison de l’escalier nord-ouest de l’ancien couvent avec un escalier secondaire en bois menant à une salle haute, ou étude, avec cheminée. Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301061NUCA & IVR52_20195301092NUCA..........................................109 • Figure 178 : Cave voûtée de l’aile sud-ouest de l’ancien couvent des ursulines et ses crochets de suspension de viande Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301093NUCA...............................................................................................110 • Figure 179 : Étienne Corbineau, Portail de l’ancienne chapelle du couvent des ursulines de Laval, 1621- 1626 (fortement remanié). Cl . Yves Guill otin , Inventaire du p atrimoine des Pays de la Loire, 2019, I VR52_20195301132NUCA...............................................................................................110 • Figure 180 : Mur gouttereau nord de l’ancienne chapelle des ursulines de Laval avec la grande arcade du XVII e siècle et les baies néo-gothiques du réalisées par Pierre-Aimée Renous au XIXe siècle. Cl. Yves Guillotin, Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301067NUCA................................111 • Figure 181 : Anciennes baies située dans le mur gouttereau nord de l’ancienne chapelle du couvent des ursulines. Elles sont aujourd’hui masquées par le gymnase attenant. Cl. Jessy Jouan, 2019.......................111 • Figure 182 : Vue intérieure de l’ancienne chapelle des ursulines de Laval avec son faux voûtement en croisées d’ogives réalisé en bois et plâtre par l’architecte Pierre Aime-Renous. Cl. . , corps de logi est daté vers 1567 droite, entre 1514 • Figure 191 : Face occidentale du corps de logis est de l'ancien couvent des patiences de Laval. Cl. François Lasa, Inventaire du patrimoine des Pays de la Loire, 1988, IVR52_19885300508XA.............................117 • Figure 192 : Portes plein-cintre moulurées au départ du grand escalier de l'aile orientale de l'ancien couvent des patiences de Laval, premier quart XVIe siècle. Cl. Jessy Jouan, 2020...........................................118 • Figure 193 : Volées voutées en berceau du grand escalier de l'aile orientale de l'ancien couvent des patiences de Laval, premier quart XVIe siècle. Cl. Jessy Jouan, 2020.............................................................118 • Figure 194 : André-François Legay de Prélaval, Vue de la place de la Trémoille de Laval avec la maison de la Bazoche à droite, mine de plomb sur papier cartonné, encore noir, lavis noir, gouache blanche, 24,2 x 15 cm, après 1715. Musée du Château-Vieux de Laval, N° Inv 5563/156. Repr. Inventaire du patrimoine des Pays de la Loire, 1980, IVR52_19805300538X......................................................................................119 • Figure 195 : Granger Genesley, Plan du rez-de-chaussée de la Maison de la Bazoche (vers 1615), dimensions non renseignées, 19 décembre 1855. Arch. Dép. de la Mayenne, S 90 209. Repr. Inventaire du patrimoine des Pays de la Loire, IVR52_19965300331X.................................................................................119 • Figure 196 : Plans schématiques rez-de-chaussée (haut) et du premier étage (bas) de la maison de la Bazoche à Laval. Dessin d'après le bâtiment existant et le plan de Genesley. DAO Jessy Jouan 2021.......................120 • Figure 197 : Face sur la place de la Trémoïlle de la maison de la Bazo che . Cl . Jessy Jouan, 2019 ...............121 • Figure 198 : Élévations sur la place de la Trémoïlle et du Piliers Vert de la maison de la Bazoche . Cl. Jessy Jouan , 2020... ................................................................ ................................................ 122 • Figure 199 : Travée de l'escalier principal de la maison de la Bazoche. Cl. Jessy Jouan, 2020. .................123 • Figure 200 : Arch. Dép. du Maine-et-Loire, Notaire Antoine Garnier, 5 E 1 277, René Chantepie, Projet pour le Logis Ménard à Angers, 1612, papier et encre noire. Cl. Jouan Jessy, 2019...................................... 124 • Figure 201 : Jean Métézeau, Hôtel de Montulé, Dreux, Eure-et-Loire, vers 1600. Cl. François Lasa, Inventaire du Patrimoine Pays de la Loire, 1988, IVR52_19885300442XA..................126 • Figure 203 : Attribué à Étienne Corbineau, Portail de l’église Notre-Dame des cordeliers de Laval, 1620- 1635. Cl. François Lasa, Inventaire du Patrimoine Pays de la Loire , 1988 , IVR52_19885300444XA ...................127 • Figure 204 : Ancien couvent des cordeliers de Laval , cadastre napoléonien, Laval, 1842, section B3, 3 P2725 10..............................................................................................................................128 BINEAU XVII SIECLE • Figure 205 : Arch. Dép. de la Mayenne, 5 V 151, « Plan de l'église de Notre-Dame ci-devant les Cordeliers de Laval avec les bâtiments qui sont employées pour la caserne. » / s.n., vers 1815 : encre noire sur papier ; 44 x 29 cm. Repr. aire du patrimoine des Pays de la Loire, IVR52_200253001112X.................................128 • Figure 206 : Ancienne aile ouest du couvent des cordeliers de Laval, non datée, première moitié du XVIIe siècle? Cl. François Lasa, Inventaire du Patrimoine des Pays de la Loire, 2003 , IVR52_20035300147X ..............129 • Figure 207 : Arch. Dép. de la Mayenne, Le Bourg d’Azé, section C1, cadastre ancien, 1833, 3P 2612 12. Détail du co uvent du Buron , dit également couvent des franciscaines........ ................................ ................130 • Figure 208 : Vue du mur gouttereau ouest de la chapelle et son portail architecturé à niches, non daté. Source : internet........................................................................................................................130 • Figure 209 : Étienne et Pierre Corbineau, Ancienne balustrade du chœur de la chapelle des ursulines de Laval et bénitier, 1623-1626, ancien couvent des ursulines de Laval, actuel Lycée Ambroise Paré. Cl. Yves Guillotin , Inventaire du Patrimoine des Pays de la Loire, 2019, IVR52_20195301084NUCA & IVR52_20195301085NUCA...............................................................................................131 • Figure 210 : Étienne et Pierre Corbineau (?), Pied de lutrin et bénitier de la chapelle des ursulines de Laval, 1623-1626, ancien couvent des ursulines de Laval, actuel Lycée Ambroise Paré. Cl. Yves Guillotin, Inventaire du patrimoine des Pays de la Loire, 2019, IVR52_20195301082NUCA & IVR52_20195301080NUCA.......131 • Figure 211 : Louis Boudan, Vue du couvent des pères minimes du Plessis-les-Tours du côté de l’entrée, 1699, aquarelle, 32,7 x 29 cm, BNF, départements des estampes et photographie, EST VA-37 (4)......................132 • Figure 212 : Couvent des bénédictines de Laval, Plan de la ville de Laval levé en 1753, revu en l’an XIII (18041805). Arch. Mun. de Laval, non coté.....................................................................................133 • Figure 213 : Couvent des bénédictines de Laval, Plan de la ville de Laval levé en 1753, Arch. Mun. de Laval, non coté.......................................................................................................................133 • Figure 214 : Arch. Dép. de la Mayenne, Plan visuel du couvent des bénédictines de Laval, Q 633, 36 x 48cm, vers 1790, Repro. • Figure 225 : Jacques Ier Andro u et du Cerceau, Planche de car touche sculpté , vers 1560-1570, Recueil factice Compartiments de Fontainebleau, INHA, FOL RES 64.................................................................144 • Figure 226 : Pierre Corbineau, Retable du mai tre au tel de l 'é glise Saint-Louis , ancien collège des jé suites, Prytanée national militaire, La Flèche, 1633-1637. Cl. Jessy Jouan, 2019............................................ 145 • Figure 227 : Registres supérieur et inférieur du retable du maitre autel de l'église Saint-Louis, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019...............................................................................146 • Figure 228 : Vue rapprochée de l’aile gauche du retable du maitre autel de l'église Saint-Louis, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019...............................................................................147 • Figure 229 : Vue rapprochée de la partie sommitale de l’aile gauche du retable du maitre autel de l'église SaintLouis, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019.................................................148 • Figure 230 : Détails des jeux de marbres polychromes de la travée centrale au niveau inférieur du retable du maitre autel de l'église Saint-Louis, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019................149 • Figure 231 : Vue en contre plongée de l’aile gauche du retable du maitre autel de l'église Saint-Louis, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019..... • Figure 232 : Couronnements de la niche sommitale du retable du maitre autel de l'église Saint-Louis, Prytanée national m • Figure 233 : Comparaison des chapiteaux composites et des chutes de fruits des retables de Piré (à gauche, 1632-1634) et de La Flèche (à droite, 1633-1637).......................................................................151 • Figure 234 : Edme Moreau, Retable de l’autel majeur de l’église Saint-Paul-Saint-Louis de Paris, 1643, 60,1 x 34,9 cm, eau forte et burin, Musée Carnavalet, Paris, G39065.........................................................152 • Figure 235 : Frère Clément (Attribué à), Retable du maître autel de la chapelle des jésuites de Chaumont, 16381640. Source : Internet......................................................................................................152 • Figure 236 : Pierre Corbineau, Retable Notre-Dame, 1633, église Saint-Louis, Ancien collèges des jésuites, Prytanée nationale Militaire, La Flèche. Cl. François Lasa, Inventaire du Patrimoine des Pays de la Loire, 1992, IVR52_19927200887VA...................................................................................................153 • Figure 237 : Vue rapprochée du retable Notre-Dame, église Saint-Louis de l'ancien collège des jésuites, Prytanée national militaire, La Flèche. Cl. Jessy Jouan, 2019..........................................................154 • Figure 238 : Jean Martinet, Retable Saint-Ignace, 1621, église Saint-Louis de l'ancien collège des jésuites, Prytanée national militaire, La Flèche. Cl. • Figure 242 : Inscription « ALTARE FACTUM FUIT 1.6.3.7 » sur le soubassement du retable du maitre autel de l’église de Domalain. Cl. Bernard Bègne, Inventaire du patrimoine Région Bretagne, 2003, IVR53_20033500636NUCA...............................................................................................157 • Figure 243 : Vue rapprochée de toile représentant la Pentecôte du retable du maître-autel de l’église de Domalain (35). Cl. Bernard Bègne, Inventaire du Patrimoine Région Bretagne, 2003, IVR53_20033500749NUCA...... • Figure 244 : Vue rapprochée des niches latérales du retable du maître-autel de l’église de Domalain. Figure de saint Nicolas et saint Melaine réalisées par Pierre Tavau en 1808. Cl. Bernard Bègne, Inventaire du Patrimoine, Région Bretagne, 2003, IVR53_20033500747NCA & IVR53_20033500748NUCA..............................158 • Figure 245 : Grande niche sommitale du retable du maître-autel de l’église de Domalain. Piéta réalisée par Pierre Tavau en 1808. Cl. Bernard Bègne, Inventaire du Patrimoine Région Bretagne, 2003, IVR53_20033500755NUCA...............................................................................................158 • Figure 246 : Niches latérales sommitales du retable du maître-autel de l’église de Domalain. Figure de saint Pierre et saint Jacques réalisées par Pierre Tavau en 1808. Cl. Bernard Bègne, Inventaire du patrimoine Région Bretagne, 2003, IVR53_20033500753NUCA & IVR53_20033500756NUCA.....................................159 • Figure 247 : Pierre Corbineau, Saint-François situé dans le bas-côté nord de l’église Notre-Dame des cordeliers Laval, 1637. Cl. François Lasa, Inventaire du Patrimoine Région Pays de la Loire, 1988, IVR52_19885300450VA...................................................................................................160 • Figure 248 : Détail du couronnement du premier registre et des décors sculptés du retable Saint-François de l’église Notre-Dame des cordeliers de Laval. Cl. François Las a , Inventaire du Patrimoine Région Pays de la Loire , 1988 , I VR 52_19885300 452 VA.... ................................................................................161 • Figure 249 : Pierre Corbineau, Retable Saint-Sébastien de l’église Saint-Pierre et Saint-Paul de Piré-sur- Seiche, 1638-1639. Source : Wikimédia Commons..............................................................................162 • Figure 250 : Niche sommitale du retable Saint-Sébastien de l’église Saint-Pierre et Saint-Paul de Piré-surSeiche. Figure de saint Jean-Baptiste attribuée à un atelier manceau, datée du XVIIe siècle (?). Source : Wikimédia Commons........................................................................................................163 • Figure 251 : Laurent Lagouz, Le martyre de Saint-Sébastien, 1639. Toile installée dans le retable SaintSébastien de l’église de Piré-sur-Seiche. Source : Wikimédia Commons............................................163 • Figure 252 : Pierre Corbineau, Retable du Rosaire de l’église Saint-Pierre et Saint-Paul de Piré-sur-Seiche, 1636-1638. Source : Wikimédia Commons...............................................................................164 • Figure 253 : Détail de l’ordre corinthien du retable du Rosaire de l’église Saint-Pierre et Saint-Paul de Pirésur-Seiche. Jessy Jouan, 2021............................................................................................................168 • Figure 258 : Hôtel de la Barbottière, première moitié du XVIIe siècle, N°17 de la rue Rennaise à Laval. Les arcades sont exécutées à partir d’une alternance de marbre rouge rose et de granit gris. Cl. Jessy Jouan, 2021168 • Figure 259 : Porte principale partiellement exécutée en marbre rouge, maison située au n°26 de la rue du Lycée, Laval, non datée. Cl. Jessy Jouan 2021....................................................................................169 • Figure 264 : Arch. Dép. de la Loire-Atlantique, 2006 W 185 : Plan du couvent des ursulines de Château- Gontier exécuté le 20 Thermidor An 11 (8 août 1803) par le capitaine chef du Génie du Mans. Plan non localisé, issus des archives du couvent et reproduit par l’architecte des bâtiments de France Christiane Schmuckle-Mollard pour la restauration du couvent.............................................................................................170 • Figure 265 : Arch. Dép. de la Mayenne, Cadastre ancien de Château-Gontier, vers 1833, section C2 le Faubourg, 3P2658 5, Ursulines 3.......................................................................................................171 • Figure 266 : Plan général du couvent des ursulines de Château-Gontier tel qu’il est aujourd’hui avec ses différentes phases de construction. Plan exécuté par Christiane Schmuckle-Mollard. Mise en couleur, Jessy Jouan, 2020...................................................................................................................172 • Figure 267 : Relevé schématique du grand comble de l’aile sud-ouest du couvent des ursulines de ChâteauGontier, 1642-1648. DAO. Virginie Desvignes, Inventaire du Patrimoine Région Pays de la Loire, 2019.......173 • Figure 268 : Relevé schématique, coupe du grand comble de l’aile sud-ouest du couvent des ursulines de Château-Gontier, 1642-1648. DAO. Virginie Desvignes, Inventaire Loire • Figure 269 : Manoir dit de la Touche et sa tour d’escalier (fin XVe siècle) depuis la cour du tour. Ancien couvent des ursulines de Château-Gontier. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300127NUCA...............................................................................................174 • Figure 270 : Élévations des bâtiments fermant au sud, au nord et à l'ouest la cour du Tour : porterie, manoir de la Touche et agrandissement du XVe siècle. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300170NUCA.......................................................................................174 • Figure 271 : Élévations des bâtiments fermant à l'est et au nord la cour du Tour : chœurs haut et bas, chapelle de la Trinité et porterie. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_202053001172NUCA.............................................................................................175 • Figure 272 : Élévations des bâtiments fermant à l'est la cour du Tour : chapelle de la Trinité et porterie. Cl. • Figure 273 : Élévations des bâtiments fermant au sud et à l'est la cour du Tour : agrandissement gothique et aile du XVIIe siècle dans son prolongement. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300173NUCA.......................................................................................176 • Figure 274 : Élévations sur l'arrière-cour du pavillon de liaison entre les manoirs médiévaux et l'aile sud-ouest sur le nouveau cloître. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300151NUCA...............................................................................................177 • Figure 275 : Élévations de l'aile sud-ouest sur l'arrière-cour. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300152NUCA..................................................................177 • Figure 276 : Ailes sud-ouest (1642-1648) et aile nord-ouest du cloître (1658-1664). Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300180NUCA............................178 • Figure 277 : Cloître de l’ancien couvent des ursulines de Château-Gontier. L’aile à gauche de la photographie est contemporaine. Cl. Yves Guill otin , Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300179NUCA...............................................................................................178 • Figure 278 : Galerie voûtée de bois sur le cloître. Aile sud-ouest du couvent. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300064NUCA..........................................179 • Figure 279 : Détail d' travée de l'aile nord avec pilastres, fenêtre et lucarne. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020IVR52_20205300142NUCA.........................................179 • Figure 280 : Détail du chapiteau ionique situé à l'angle des ailes sud-ouest et nord-ouest. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300143NUCA...........................180 • Figure 281 : Détail d'un chapiteau ionique complété de son entablement. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300145NUCA............................................180 • Figure 282 : Vue de l’ancienne cave de stockage dotée de crochets à suspendre les denrées, située dans l’aile sud-ouest du couvent. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300074NUCA...............................................................................................181 • Figure 283 : Vue intérieure de l'ancien réfectoire de l'aile sud-ouest aujourd'hui salle des percussions. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300174NUCA...............181 • Figure 284 : Chaire de lecture située dans l'ancien réfectoire du rez-de-chaussée de l’aile sud-ouest. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300129NUCA...............182 • Figure 285 : Grande salle sous poutres du rez-de-chaussée de l’aile nord-ouest. • Figure 289 : Cellule d'une religieuse ursuline reconstituée avec son mobilier dans l’aile sud-ouest. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300101NUCA...............184 • Figure 290 : Grand comble de l’aile sud-ouest à charpente à chevrons formant fermes (1642-1646). Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300176NUCA...............185 • Figure 291 : Pierre et Gilles Corbineau, Façade de la chapelle de l’ancien couvent des ursulines de ChâteauGontier (1658-1664). Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300166NUCA...............................................................................................185 • Figure 292 : Ancien chœur bas des religieuses situé dans l’aile sud-ouest du couvent et s’ouvrant sur le chœur de la chapelle de la Trinité. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300093NUCA...............................................................................................186 • Figure 293 : Chœur haut des religieuses situé dans l’aile ouest du couvent, actuellement salle de danse et s’ouvrant à l’origine sur le chœur de la chapelle de la Trinité. Cl. Yves Guillotin, Inventaire du Patrimoine Région Pays de la Loire, 2020, IVR52_20205300098NUCA...................................................................186 • Figure 294 : Cloître Saint-Benoit, abbaye de Fontevraud, vers 1580. Cl. Bruno Rousseau, Département du Maine-et-Loire, Inventaire du patrimoine Région Pays de la Loire, 2013............................................187 • Figure 295 : Anonyme, Vue du pont royal et du pavillon de Flore, 1814. Le pavillon possède toujours son architecture imaginée par Louis Métézeau dont les pilastres portant des parties d’entablement. Source : BnF..............................................................................................................................................187 • Figure 296 : Cloître du prieuré hospitalier de Toulouse, 1665-1685. Source : Internet...........................188 Figure 297 : Planche ionique dans Bullant Jean, Reigle generalle des cinq manieres de colonnes, Paris, chez J. Marnef et G. Cavellat, 1564, pl. C III.....................................................................................188 • Figure 298 : Louis Boudan, Veue du dedans du château de Thouars, 1699, aquarelle, 32,7 x 29 cm. BNF, Estampes et Photographie, EST VA-79 (3)...............................................................................189 • Figure 299 : Jean Marot, Plan du rez-de-chaussée du château de Tho uars (79) publié dans Recueil des plans , profils et élé vations de plusieurs palais , châteaux [...] , [s.l s.n], avant 1659, fol.49................................ 189 • Figure 300 : Pierre Corbineau, Balustres et main courante en marbre rouge de Laval du grand escalier du château de Thouars, 1642-1644, aujourd’hui collège Marie De la Tour d’Auvergne. Source : Internet...........190 • • Figure 301 : Pierre Corbineau, Balustres et main courante en marbre rouge de Laval du grand escalier du château de Thouars, 1642-1644, aujourd’hui collège Marie De la Tour d’Auvergne. Source : Internet..........190 • Figure 302 : Pierre Corbineau, Balustres et main courante en marbre rouge de Laval du grand escalier du château de Thouars, 1642-1644, aujourd’hui collège Marie De la Tour d’Auvergne. Source : Internet...........191 • Figure 303 : Balustrade en marbre rouge de Laval exécutée pour le grand escalier du château de Richelieu, aujourd’hui remontée dans le croisillon nord de la cathédrale Saint-Gatien de Tours. Cl. Robert Malnoury, Inventaire du Patrimoine Région Centre-Val-de-Loire, 1988, IVR24_19883700602X.............................191 • Figure 304 : Détail des balustres en poire de la balustrade du croisillon nord de la cathédrale Saint-Gatien de Tours. Cl. Robert Malnoury, Inventaire du Patrimoine Région Centre-Val- , , _ ..... ................ ................................ • Figure 305 : Couvent des Carmes de Rennes (rue Vasselot), extrait du Plan de la ville de Rennes en 1726 levé par F. Forestier après l'incendie arrivé le 22 Xbre 1720, sur lequel ont ésté formé (sic) les projets tant du Sr Robelin, directeur des fortifications. que du Sr Gabriel, contrôleur général des batiments du Roy, 1726, Bnf, département Cartes et plans, GE C-15136................................................................................194 • Figure 306 : Arch. Mun. de Rennes, 1 Fi 20 : Lainé Binet, Plan général en couleurs de l'enclos ci-devant des Grands Carmes, ayant depuis plusieurs années servi d'hôpital militaire, divisé en six lots pour être vendus au profit de la République, 1797..............................................................................................194 • Figure 307 : Pierre Corbineau, Massif occidental de la cathédrale Saint-Pierre de Rennes vu depuis le parvis, 1654-1678. Cl. • Figure 313 : Salomon de Brosse, Façade de l'église Saint-Gervais-Saint-Protais, Paris, 1616-1621. Source : internet........................................................................................................................199 • Figure 314 : Pierre Mercier et Pierre Miressus, Massif occidental de la cathédrale d’Auch, 1672-1680. Source : Internet.......................................................................................................................199 • Figure 315 : François Derand, Charles Turmel et Pierre Goict, Façade de l'église des jésuites de Rennes, aujourd’hui appelée église Toussaint, 1624-1651. Source : Wikimédia Commons.................................200 • Figure 316 : Théophile Goupil, Entrée de l’hôpital Saint-Yves, vers 1858, Musée de Bretagne, Rennes, n° d’Inv. 949.1814.1.4..................................................................................................................201 • Figure 317 : Hôpital Saint-Yves de Rennes, (rue St-Yves et place du Port), extrait du Plan de la ville de Rennes en 1726 levé par F. Forestier après l'incendie arrivé le 22 Xbre 1720, sur lequel ont ésté formé (sic) les projets tant du Sr Robelin, directeur des fortifications que du Sr Gabriel, contrôleur général des batiments du Roy, 1726.
17,841
63/tel.archives-ouvertes.fr-tel-00790773-document.txt_4
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
6,831
12,392
3- Mise en évidence des nanostructures de la morphologie. 3.1- Caractérisation des supports initiaux. Dans un premier temps, il paraît intéressant de connaître la morphologie surfacique du support à modifier. Deux types de supports sont étudiés : les zéolithes (cristallines) et les alumines (amorphes) (Figure 2.7). (a ) (b) (c) Figure 2.7: a-Alumine activée AA 1,5-3 non modifiée, b-Zéolithe A, c-Tamis X. Concernant les zéolithes de type A et de type X qui seront utilisés pour l'é laboration de nouveaux adsorbants, une analyse MEB montre une régularité de structures156. 53 Chapitre II Elaboration de matériaux aux performances nouvelles ________________ ________________________________ 3.2- Caractérisation des nanostructures de carbones obtenues via la méthode Chemical Vapour Deposition par Pyrolyse Catalytique. 3.2.1- Support catalytique. L'élaboration de NSC passant par la préparation de support catalytique, il est intéressant de vérifier l'homogénéité de cette nouvelle surface qui sera aussi quantifiée par la technique de la microsonde X qui indiquera de manière plus précise la répartition métallique au sein du matériau. Dans le cas de supports catalytiques au cobalt ou au nickel, les résultats ont été les suivants (Figure 2.9)157 : Figure 2.9 : Répartition de particules catalytiques (Co) sur un support de Silice . 3.2.2- Nanostructures de carbone. Selon le support utilisé et des paramètres mis en oeuvre, l'obtention de nanostructures se fera de manière plus ou moins ordonnées. Dans le cas de la silice, elles seront plus ordonnés si elles ont été synthétisées sur un catalyseur à base de cobalt que sur un support catalytique à base de nickel (Figure 2.10) 157. Figure 2.10: Nanostructures de carbone obtenues sur Co/Silice à 800°C (MEB). Dans la cas d'une synthèse de nanostructures de carbone sur catalyseur au cobalt (Figure 2.11a), la répartition est beaucoup plus diffuse que dans le cas de nanotubes ayant grossi sur des particules catalytiques de fer (Figure 2.11b)147. (a) (b) Figure 2.11: Nanotubes élaborés sur catalyseurs Co/ alumine (a) et Fe/ alumine (b) (MEB). 54 Chapitre II Elaboration de matériaux aux performances nouvelles De même que selon les conditions thermiques appliquées lors de la fabrication du catalyseur (calcination C, réduction R), la population de NSC présentes sur le précurseur catalytique sera plus ou moins importante, et développée sur toute la surface poreuse (Figures 2.12 et 2.13)149. Figure 2.12: Images MEB de nanotubes de carbone élaborés sur différents supports catalytiques. (a) Al2 O3/Co - C600°C/R450°C – (b) Al2 O3/Co – C1000°C/R1000°C – (c) Al 1,75 O3 Fe 0,25 - C1000°C/R1000°C et (d) Al 1,95 O3 Fe 0,05 - C1000°C/R1000°C. Figure 2.13: Nanofibres de carbone sur catalyseurs Co-Mo (5%) observées au MEB. (a) et (b) C2H 4 à 480°C – (b) et (d) à 600°C. Les autres facteurs déterminants dans la croissance des nanostructures sont la concentration ainsi que les proportions représentatives de chacun des gaz dans le mélange. Bilan Des matériaux performants peuvent être élaborés à partir de diverses techniques, le point de départ étant la nature du support traité : s'agit-il d'un support minéral de type silice, alumine ou zéolite, d'un support déjà modifié par un dépôt métallique? Dans le premier cas, l'étude bibliographique a permis de rendre compte des méthodes les plus utilisées : hydrophobisation de silices ou de zéolithes, désalumination de composés zéolithiques via la méthode thermique, itre II Elaboration de matériaux aux performances nouvelles la méthode chimique ou même la combinaison des deux et enfin, fabrication de support carbone- silice par carbonisation directe ou par polymérisation suivie de l'étape de carbonisation. Les conditions thermiques sont établies entre 500 et 800°C et, le temps de traitement dépend d'abord des propriétés du support initial: un matériau de faible surface spécifique (150-300 m2.g-1) ne pourra accepter une forte quantité de carbone qu'au détriment de ses propriétés physiques (abaissement de la surface spécifique, perte de volume poreux). Enfin, la nature du précurseur organique apparaît comme étant l'un des facteurs déterminant dans la qualité de la couche de carbone formée à la surface du matériau existant. De manière générale, les précurseurs employés sont des alcools, des dérivés chlorés, aromatiques. L'autre possibilité réside sur l'hydrophobisation d'un support de type métal- minéral. Après obtention d'un catalyseur mono- ou bimétallique, la décomposition pyrolytique d'un précurseur organique gazeux va favoriser la croissance de structures organisées sur le matériau. La position des particules catalytiques à l'issue du processus permettra d'établir la nature exacte du type de nanostructures élaborés. Contrairement aux techniques d'élaborations citées dans plus haut il est possible de déposer sur le matériau des quantités de carbone relativement élevée (de l'ordre de 20 à 30% massique) sans pour autant modifier les propriétés physiques du catalyseur. Cet avantage permet de conférer plus facilement au nouveau matériau des propriétés hydrophobe Cependant, si un large panel de techniques a été étudié et a permis de démontrer l'intérêt de chacune des méthodes de par la conservation des propriétés du support initial dans des conditions de traitement plus ou moins définies, il n'en demeure pas moins que ces moyens d'élaboration n'ont jamais été mis en oeuvre pour modifier des adsorbants en vue d'applications environnementales, particulièrement, l'analyse et le traitement de composés organiques. 1- Elaboration de nouveaux matériaux. 1.1-Elaboration de composites selon la méthode CVD-PHNC. Les étapes de conditionnement et de synthèse des adsorbants hydrophobes ont lieu dans un four tubulaire. 1.1.1-Matériel Les manipulations relatives à la fabrication de matériaux sur des supports aluminiques se déroulent dans un four (Thermolyne). Durant cette étude, un autre type de four (Coffi) est utilisé. Sa vitesse de montée en température, beaucoup plus lente, constitue un atout majeur pour le conditionnement. Ceci sera explicité dans le Chapitre IV. Pour l'élaboration des nanostructures carbonées, un four Carbolyte est utilisé. 1.1 .1.1 -Conditionnement des adsorbants. L'installation utilisée pour la phase de conditionnement est constituée des éléments suivants : -un four tubulaire et un réacteur cylindrique de 70 cm de hauteur, -air comprimé de réseau, -un humidimètre réseau et un thermocouple sonde, Les conduits, au départ en Téflon, seront remplacés par un matériau beaucoup plus résistant et performants, le Rilsan, matériau essentiellement utilisé dans le secteur pétrochimique. En effet, le rilsan présente l'avantage de n'adsorber aucun constituant, pas même les produits organiques. Elle se présente comme indiquée sur la figure 3.1: Support minéral Humidimètre Air comprimé réseau de Figure 3.1 : Installation relative au conditionnement des supports minéraux. 1.1.1.2- Mise en oeuvre de la méthode CVD-PHNC. L'installation pour la fabrication de nouveaux adsorbants hydrophobes nécessite : - un débitmètre (à bouchon) pour la régulation du flux du gaz de balayage (l'azote), - un débitmètre (à bouchon) pour la régulation de l'air comprimé lors de la phase terminale du refroidissement du milieu (< 175°C) - un pousse-seringue (INFORS HT) servant à injecter le précurseur organique liquide dans le milieu réactionnel - un réacteur tubulaire placé dans un four tubulaire (Thermolyne T79300) Le schéma du montage expérimental mis en oeuvre figure 3.2 : Enceinte thermique N2 Air Comprimé Figure 3.2 : Montage expérimental méthode Chemical Vapour Deposition via la Pyrolyse Hétérogène Non Catalytique. 1.1.2-Méthode 1.1.1.1- Conditionnement des support s. L'adsorbant initial est versé dans un réacteur, placé dans le four tubulaire vertical (Thermolyne). Le conditionnement consiste à sécher le support à haute température (550°C- 750°C) sous flux d'air comprimé. Le ________________________________________________________________________________ débit G= 1200 ml.min-1 est appliqué durant tout la phase de désorption. En aval, un humidimètre (Dostmann elctronics P660 series) permet d'effectuer un suivi du taux d'humidité en fonction de la température réelle – température indiquée par la sonde se trouvant au coeur du réacteur. 1.1.1.2- Hydrophobisation des adsorbants par CVD-PHNC. Un précurseur organique liquide est injecté, au moyen d'un pousse-seringue, sous balayage d'azote. La décomposition pyrolytique de l'hydrocarbure sur le support est réalisée sur l'intervalle de températures 500900°C dans le four. Le temps de traitement est fonction de la quantité de carbone à déposer à la surface en évitant une ob des pores trop important : la capacité d'adsorption en composés organiques serait réduite. 1.2-Elaboration de nanostructures de carbone selon la méthode CVD-PC. 1.2.1-Matériel Le conditionnement, nécessite une installation différente de celle utilisée pour la fabrication de matériaux selon le principe CVD-PHNC (Figure 26). Toutefois, l'installation précédente a été utilisée pour la synthèse de nanostructures de carbone (NSC) à partir de précurseurs organiques liquides. Elle a ensuite été modifiée afin de procéder à l'élaboration de NSC par la voie la plus courante via l'utilisation d'un précurseur organique gazeux, l'acétylène C2H2 (réseau). Le montage expérimental est ici, composé de débitmètres massiques (Figure 3.3). Il faut considérer une alumine activée imprégnée par une solution de sel métallique, qui après mûrissement, séchage et calcination, constitue un catalyseur sous forme oxyde (Méthode 1). La réduction du catalyseur d'oxyde à la forme métallique (Méthode 2). N2 H2 Four tubulaire C2H2 Figure 3.3 : Montage expérimental méthode Chemical Vapour Deposition via la Pyrolyse Catalytique. 1.2.2-Méthode. Une masse de catalyseur d'oxyde est versée dans le réacteur, schématisé sur la figure 3.4, puis placé dans le four. Le catalyseur (d'oxyde ou métallique) est d'abord conditionné sous atmosphère inerte durant 1 heure. Méthode 1 : Synthèse de NSC sur les précurseurs d'oxydes : le gaz de balayage, le gaz réducteur et le gaz réactant réagissent de manière simultanée avec la surface solide. Méthode 2 : Synthèse de NSC sur les précurseurs métalliques : l'élaboration des nanostructures est obtenue par le contact direct du gaz réducteur, puis du gaz réactant avec la surface catalytique. 800 mm 880 mm 3mm 400 mm 400 mm 400 mm Réacteur 600 mm 25 mm Four Tubulaire Figure 3.4 : Schéma du réacteur NSC (dimensionnement) et emplacement dans le four tubulaire) 1.3-Etape de Synthèse. 1.3.1-Matériel 1.3.1.1-Travail en atmosphère inerte Le travail en atmosphère inerte permet un meilleur traitement de la surface minérale : -dans le cas de la synthèse d'adsorbants hydrophobes dits "classiques", un balayage par le diazote assure une bonne répartition du précurseur carboné sur le support, préalablement conditionné sous air. -dans le cas de la synthèse de nanostructures carbonées, la littérature considère l'argon comme particulièrement adapté de par sa haute pureté. Cependant, ces matériaux peuvent se préparer sous flux d'azote. -enfin, l'utilisation de l'air comprimé de réseau est effectuée, en fin d'essai, lors de la phase de refroidissement du réacteur. A partir d'une température inférieure à 175°C, afin d'éviter un endommagement de la surface, l'air comprimé de réseau est utilisée. 1.3.1.2-Choix du précurseur . Au départ, le précurseur organique a été choisi en fonction de la valeur du rapport C/H qui doit tendre vers 1 dans le cas optimal : l'hydrophobisation du support minéral est d'autant plus certaine que le nombre d'atomes de carbone est élevé. Par conséquent, des molécules organiques à noyaux aromati sont intéressantes. 1.3.1.3-Adsorbants testés. Les adsorbants minéraux qui sont hydrophobés sont des supports minéraux fournis par la Société AXENS IFP Group Technologies dont l'unité de production est basée sur le Site de Salindres (Gard). Leurs caractéristiques sont résumées dans le tableau 3.1. Produits AA 1,5-3 Lot 01 113 12 Etat Physique Forme Diamètre de grains (mm) Couleur Température de fusion (°C) Masse Volumique apparente (produit tassé) (Kg/m3) Surface Spécifique (BET) (m2/g) Volume poreux, Ω37Å*103 (m3/Kg) Capacité d'adsorption d'eau conditions statiques E0,6 (% mas) Alumines SPH 538 E SPH 1515 Lot 29 019 07 Lot 98 223 52 Zéolithes Tamis 5A Tamis 13X Lot Lot 36 030 05 Solide Billes 1,5-3,0 Blanc >2000 Solide Extrudés 1,1-1,3 Blanc >2000 Solide Billes 1,4-2,2 Blanc >2000 Solide Extrudés 1,6 Beige >2000 Solide Extrudés 1,6-3,2 (6,4) Beige >2000 831 591 641 303 - 307 250 - 269 163 - 169 - 509 0,393 - 0,401 0,683 - 0,684 0,661 - 0,718 - 0,291 19,3 - 19,4 13,3 - 14,7 8,4 - 9,8 25,1 25,2 667 Tableau 3.1 : Caractéristiques des supports minéraux testés. Les alumines activées testées possèdent une structure cristalline amorphe. Seul, les tamis moléculaires, Tam is 5A et Tamis 13X se présentent sous forme cristalline aluminosi licate . 1.3.1.4- Utilisation de catalyseurs métalliques Trois précurseurs catalytiques sont employés pour la préparation du support catalytique par imprégnation – étape préalable à la synthèse des NSC à la surface du catalyseur ainsi constituée : -Nitrate de Fer (III) nonahydraté (ACROS), -Acétate de Cobalt (II) tétrahydraté (ACROS), -Nitrate de Nickel (II) hexahydraté (ACROS). Les caractéristiques de ces produits sont détaillées dans le tableau 3.2. Produits Caractéristiques Nitrate de Fer (III) nonahydraté Acétate de Cobalt (II) tétrahydraté Nitrate de Nickel (II) hexahydraté Formule Fe (NO3)3, 9 H2O Co (CH3COO)2, 4 H2O Ni (NO3)2, 6 H2O Etat Physique Forme Couleur Solide Cristaux Gris Solide Poudre Rose-fuschia Solide Cristaux Vert gazon 404,00 249,03 290,81 Densité 1,6840 - - Tableau 3.2: Caractéristiques des sels de métal utilisés. 1.3.2-Méthode 1.3.2.1- Elaboration de matériaux catalytiques Principe : L'élaboration de matériaux catalytiques consiste à conférer au support minéral un caractère catalytique, par le biais d'une imprégnation réalisée à partir d'une solution de sel métallique. Les catalyseurs monométalliques sont obtenus à partir d'une solution de nitrate de fer (III) nonahydraté, d'acétate de cobalt (II) tétrahydraté, de nitrate de nickel (II) hexahydraté. Protocole expérimental : la solution de sel de métal est d'abord dissoute dans une solution eau-alcool tel que l'éthanol ou l'isopropanol qui sert à l'imprégnation. Au bout de 24 heures le matériau solide séjourne dans une étuve à 120°C pendant une durée de 6 à 10 heures. La technique peut être présentée sous la forme d'un schéma (figure 3.5): Imprégnation des supports catalytiques Solution de sel de métal Imprégnation Produit intermédiaire 25°C / 24 h Mûrissement : homogénéité de l'imprégnation Produit "mûr" 120°C / 6-10 h Séchage Produit sec 500-700°C / 3-4 h Calcination/Traitement thermique Catalyseur d'oxyde (Méthode 1) 600°C Réduction H2 (G préalablement défini) Catalyseur métallique (Méthode 2) Figure 3.5 : Méthode d'imprégnation des supports catalytiques. 1.3.3- Paramètres opératoires relatifs aux premiers essais. 1.3.3.1-Détermination des paramètres. Une liste des paramètres opératoires à fixer a été dressée : Première étape : fabrication des catalyseurs : - Support minéral : nature, quantité,, ________________________________________________________________________________ - Sel de métal : nature, quantité,, - Adjuvant de dissolution : nature, volume,, (si c'est le cas), Deuxième étape : synthèse de nanostructures carbonées. - Température T, - Gaz réactant : nature, débit, vitesse volumique - Gaz de balayage : nature, débit, vitesse volumique - Gaz réducteur : nature, débit, vitesse volumique - Durée de traitement, Remarque : pour l'étape nécessaire à l'élaboration des catalyseurs (Tableau 3.3), les paramètres opératoires à mettre en oeuvre se basent sur les résultats de l'étude bibliographique (Cf. Chapitre II), notamment pour le choix Paramètres Opératoires Préparation du Catalyseur Support Minéral Sel de Métal Adjuvant de dissolution Préparation du Catalyseur Etape Produit Nature Quantité Remarques SPH 538 E Extrudés Solide 30,00 g Dans un premier temps, le produit ne sera pas broyé pour cause de pertes de charges . 3,15 g Densité : non disponible 5,30g Masse Molaire : 249,0264 g. mol-1 Densité : non disponible Co(CH3COO)2, 4H2O Fe (NO3)3 9 H2O Ni (NO3)2, 6 H2O Ethanol Poudre Solide Cristaux Solide Cristaux Solide Masse Molaire : 404,00 g. mol-1 Alcool Liquide A définir (quelques gouttes) La dissolution favorise une répartition plus homogène des particules catalytiques sur le support. des sels métalliques. Tableau 3.3: Paramètres opératoires relatifs à l'élaboration de nanostructures carbonées. Au niveau de la synthèse des NSC, les paramètres opératoires seront choisis en s'appuyant sur la littérature en fonction des supports catalytiques élaborés, par la suite. L'élaboration de NSC à partir de précurseurs organiques liquides tient compte de la densité des produits (Tableau 3.4). Analyses au MEB Fe / γ-Al2O3 Solide m (g) Analyses au MEB - - 600-750 Débit de Gaz de Balayage (ml.min-1) Azote N2 Gaz 15 Carbonées Synthèse de Nanostructures Concentration de précurseur Organique réactant (g.m-3) Débit de Gaz réactant (ml.min-1) Durée de traitement (min) Argon Ar Hex-1-ène C6H12 Gaz Liquide Carbone m (g) Nanostructures de Solide Synthèse des Co / γ-Al2O3 Catalyseurs 15 200,00 Densité : 0,6731 Masse Molaire : 84 g. mol-1 Densité : 0,906 Masse Molaire : 26,04 g. mol-1 Acétylène Gaz - - - 15 à 30 (Hex-1-ène) Tableau 3.4 : Paramètres opératoires relatifs aux premiers essais. 1.3.3.2-Détermination de la quantité de sel de métal. L'élaboration de nanostructures de carbone (NSC) passe par la fabrication de catalyseurs hétérogènes en métal (aux) tel(s) que Co, Fe ou Co/Fe. Une méthode d'imprégnation susceptible de convenir a été décrite plus haut, et doit permettre d'aboutir à l'obtention de catalyseurs métalliques de bonne qualité. Hypothèses : Les solutions de sels utilisées – acétate de Cobalt (II) tétrahydraté et nitrate de Fer (III) nonahydraté – peuvent conduire chacun à la formation de deux types d'oxydes : Co2O3 ou Co3O4 et Fe2O3 ou Fe3O4 respectivement. Cependant, les conditions expérimentales favorisent les formes plus réduites : les oxydes doivent être favorables à la forme oxydante et prédominantes. Si l'on passe par les sels solubles, les conditions oxydantes sont régies par une température élevée T et par une temps de réaction t relativement long, de l'ordre de 4 heures : ceci permet d'aboutir à des formes finales du type Me2O3 où Me est le métal. Dans le cas des poudres d'oxydes, après imprégnation, il existe une conservation des formes moins oxydées. Remarque : la quantité de métal déposée peut être vérifiée et quantifiée par adsorption atomique. Calcul de la masse de sel à mettre en oeuvre : Soit le mécanisme schématisé ci-dessous : Δ Co (CH3COO)2 Co2O3 Le catalyseur obtenu doit présenter la composition massique suivante : 2,5 % en masse Co 100 % en masse Co/ γ-Al2O3 97,5 % en masse γ-Al2O 3 Le but est de fabriquer une quantité de catalyseur m équivalente à 30,00 grammes. La quantité de sel à utiliser peut être déterminée de la manière suivante : 2 Co (CH3COO)2, 4H2O (M= 498,05 g.mol-1) Co2O3 ( M= 165,86 g.mol-1) Par conséquent, la quantité d'oxyde à peser : Masse d' oxyde = % en masse Co * (M (Co2O3) / (2* M (Co))) La masse d'oxyde est équivalente à 3,5181 grammes. La masse de sel de métal nécessaire à l'imprégnation de 30,00 grammes d'alumine activée SPH 538 E correspond à 3,17 grammes : m= (M (2 Co (CH3COO)2) * 0,3 * moxyde ) / M (Co2O3) Remarque : concernant la détermination de la quantité de sel de fer nécessaire à l'élaboration d'un catalyseur Fe/ γ-Al2O3, la méthode de calcul est rigoureusement la même. Les valeurs sont résumées dans le tableau 3.5. Catalyseurs Teneur en métal (% en masse) Masse d'oxyde (g) Masse de sel de métal (g) Co/ γ-Al2O3 1,5 2,1108 1,9015 Co/ γ-Al2O3 2,5 3,5180 3,1692 Fe/ γ-Al2O3 Fe/ γ-Al2O3 Ni/ γ-Al2O3 Ni/ γ-Al2O 3 Co/ γ-Al2O3 Fe/ γ-Al2O3 Ni/ γ-Al2O3 1,5 2,5 1,5 2,5 1,25 1,25 1,25 2,0730 3,4550 2,1132 3,5219 1,7590 1,7275 1,7610 3,2553 5,4255 2,2290 3,7141 1,5846 2,7128 1,8571 Tableau 3.5: Détermination de la masse d'oxyde et de sel de métal pour la synthèse de catalyseurs. 1.3.3.2-Détermination du volume de solution La quantité de sel de métal qui vient d'être déterminée doit être dissoute dans un volume d'eau distillée auquel est rajouté un volume d'alcool permettant une dissolution plus facile du sel de métal. La première possibilité consiste à immerger la masse d'alumine activée dans un volume suffisant. Seulement, une partie de la solution de sel de métal risque de ne pas être adsorbée par la masse en question. La deuxième possibilité, plus rigoureuse, consiste à évaluer la quantité liquide nécessaire et suffisante pour saturer et imprégner l'adsorbant en totalité. Pour cela, il a été utile de mettre en oeuvre un protocole simple consistant à évaluer le volume d'eau permettant de saturer une masse d'adsorbant équivalente à 1,50 grammes dans un premier temps puis à 5,00 grammes dans un second temps, cette dernière étape permettant de vérifier la reproductibilité malgré le facteur d'échelle. Les résultats obtenus sont résumés dans le tableau 3.6 ci-dessous: Adsorbants Masse (g) VH2O (ml) VH2O (nombre de gouttes) SPH 538 E SPH 538 E SPH 538 E SPH 538 E 1,50 1,50 5,00 5,00 1,5 ± 0,05 1,45 ± 0,05 5,1 ± 0,05 5,0 ± 0,05 47 46 159 160 Tableau 3.6: Détermination du volume d'eau pour une imprégnation totale de l'adsorbant. Pour proc éder à l 'imprégnation d'une masse d'adsorbant m équivalente à 30,00 grammes, il est nécessaire d'élaborer une solution (eau + alcool) de volume 30,00 ml . La quantité d'alcool étant fix ée à 10% . 1.3.3.3- Détermination de la masse de produit en fonction de la hauteur de couche h. La hauteur de couche est un des facteurs non négligeables car elle est déterminante dans la qualité du produit obtenu. Il faut élaborer de nouveaux adsorbants parfaitement homogènes : les conditions opératoires requises doivent être identiques en tout point hi constitué par la hauteur h de la couche, en particulier, en terme de distribution thermique. La quantité de produit à traiter ne doit donc pas être excessive afin que la position de la couche de support soit située au centre du milieu réactionnel. Le calcul qui détermine ce paramètre est : ________________ ________________ ________________________________ Volume apparent de la masse de produit V ( mm3) h (mm)= = Aire de la section du réacteur A ( mm) (m (mg) / Vapparent (mg.mm-3))*103 π*R2 Lors du dimensionnement de notre réacteur, le cas où la hauteur de couche maximale serait hmax< 80,00 mm a été retenu. Le diamètre du réacteur (Figure 3.4) et le volume apparent du produit (Tableau 3.1) sont aussi déterminants. Les conditions opératoires doivent tenir compte de ce critère défini tel que : m (Me / γ-Al2O3) ≤ m max m (Me / γ-Al2O3) ≤ 1,8196 grammes De cette manière, le catalyseur est exposé à des conditions thermiques quasiment homogènes sur toute la hauteur du lit : les conditions seront donc optimales. Les tests mettent en oeuvre une masse de précurseur catalytique équivalente 1,50 grammes : la hauteur de couche atteint 65,94 mm. 1.4 - Les plans d'expériences. L'intérêt de mettre en place un plan d'expériences réside en le fait que la possibilité de conclure quant à l'influence de certains paramètres est extrêmement rapide. Si les techniques du Simplexe et du Carré Latin peuvent s'avérer faciles à mettre en oeuvre lorsque l'étude est réalisée sur trois paramètres, elles deviennent plus complexes dés lors que quatre ou cinq paramètres sont mis en jeu. Ici, quatre paramètres vont pour l'hydrophobisation d'alumines activées (acidifiées) et de zéolithes. Dans le cas des nanostructures, l'influence relative à cinq paramètres sera étudiée. 1.4.1- Principe. Dans le cas des supports hydrophobés « classiques », un plan d'expériences ayant déjà conduit à de bons résultats dans le cadre d'un autre type d'étude au sein du Laboratoire a été fait. Pour ce faire, une matrice de Doelhert est mise en oeuvre158. Le tableau est rempli à partir d'une part des valeurs moyennes de chacun des paramètres considérés avec un écart-type, et d'autre part à partir des coefficients figurant dans le plan d'expériences. 1.4.2- Méthode. 1.4.2.1- Para mètres opératoires mis en jeu . Il est nécessaire d'évaluer l'impact des paramètres qui vont être utilisés : quatre paramètres opératoires seront optimisés : -la température TII, température relative à la deuxième étape, -la concentration C0II, concentration relative à la deuxième étape, -le temps de séjour τII correspond à la hauteur de couche par rapport à la vitesse s'exprime en s-1. ________________________________________________________________________________ -la vitesse volumique de gaz VII ou le débit de gaz existant lors de l'étape II GII, sachant que les deux variables sont reliées par la relation suivante : VII = GII / V avec :  GII = la vitesse volumique du gaz exprimée en m3. h-1,  V= la quantité d'adsorbant exprimée en m2,  VII = la quantité de phase gazeuse qui passe par unité d'adsorbant exprimée en h-1. Remarque : V, G et τ sont trois paramètres liés : la hauteur est directement proportionnelle à la quantité de produit. La température du milieu réactionnel: elle constitue l'un des facteurs les plus importants et influe sur la qualité de la carbonisation de la surface du support aluminique. Aussi, la température moyenne est fixée à 600°C (873,15 K). Dans le cas des adsorbants acidifiés, il a été choisi de travailler avec ΔT=30°C. La concentration : la détermination de la concentration limite permet de se conformer aux critères imposés par la méthode Chemical Vapour Infiltration (CVI) : la valeur seuil à ne pas franchir est C= 250 g.m-3 avec une pression variant entre 100 et 5000 Pa. (1 atm = 1,013 105 Pa). Ceci amène au calcul du pourcentage volumique correspondant à la quantité de gaz remplacée par un corps étranger : 100/1,013.105 # 1,0. 105 c'est-à-dire 10-1 % volumique avec : unité du % volumique : g.m-3 1.4.2.2-Etablissement d'une relation entre le toluène et l'hex -1-ène. Cas du toluène : Soit une concentration équivalente à C=30,00 mg.m-3, ce qui correspond à une teneur de 7,844 vpm (7,844.10-6) c'est-à-dire 7,844.10-4 % vol. de produit dans la phase gazeuse. Par conséquent, 0,1% vol correspondra à une concentration C=3,80.103 mg.m-3 en toluène. De même, une concentration de C=1,00 mg.m-3 correspondra à 0,26 vpm (ou encore 0,26.10-4 % vol). Rapport entre le toluène et l'hexène : Si l'on considère les densités volumiques de chacun des solvants organiques : dToluène = 0,868 g.cm-3 et dHexène = 0,673 g.cm-3 Le rapport conduit à la relation : ρTolu / ρ He xène = 0,8 68 / 0,673 = 1,29 c'est - à -dire ρToluène = 1,29 ρHexène Par consé quent, à C=1,29 mg.m-3 correspondra à 0,26 vpm (ou encore 0,26.10-4 % vol). 1.4.2.3-Perspectives. Les concentrations utilisées pour réaliser l'hydrophobisation de supports acidi fiés se situent entre Cmin = 0,5 g.m-3 et C max = 4,5 g.m-3 avec ΔC = 1 g.m-3. Par conséquent, les valeurs suivantes seront testées : C= 0,5 g.m-3, 1,5 g.m-3, 2,5 g.m-3, 3,5 g.m-3 et 4,5 g.m-3 Vitesse volumique. Dans un premier temps, il faut considérer un débit moyen tel que : G (N2) = 100 ml.min-1 (quantité de gaz utilisé pour sécher la surface) avec une masse d'adsorbant, dans le réacteur, équivalente à 15,00 grammes. Soit : V= quantité de produit / densité apparente de produit (Tableau 3.1)= q/d Dans les conditions standard : T1=25°C. La vitesse volumique a pour expression : VII conditions standard (min-1) = G (N2) / V Dans le cas où la température du milieu réactionnel T2 (°C), l'expression de la vitesse volumique sera donc: VII milieu réactionnel (min-1) = VII conditions standard (min-1) * [(T2 + 273,15)/ (T1 +273,15)] Perspectives : G II (standard) prendra pour valeur : Gmoy = 100 ml.min-1. Avec ΔG = 30 ml.min-1. Les déterminations dans le cas de chacun des adsorbants ont été faites et figurent dans le tableau 3.7 ci-après. AA 1,5-3 Masse de produit (g) 15,00 Masse volumique apparente (kg.m-3) 831 SPH 1515 15,00 641 SPH 538 E 15,00 591 Tamis 13X 15,00 667 Produits Débit GII (ml.min-1) 70 100 70 100 70 100 70 100 Vitesse volumique VII (20°C) (h-1) 232, 68 332,41 179,48 256,40 165,48 236,4 186,76 266,80 Vitesse volumique VII (600°C) (h 681,75 973,96 525,88 751,25 484,86 692,65 547,21 781,72 Tableau 3.7: Influence des propriétés physiques du support sur la vitesse volumique. La vitesse volumique VII imposée au milieu réactionnel est directement liée à la masse volumique apparente de l'adsorbant. Pour un même débit de gaz, la vitesse volumique de l'azote est plus élevée dans le cas de la carbonisation du support AA 1,5-3 que dans celui de l'alumine activée AA 1,5-3. De même, VII est d'autant plus élevé que la température du milieu est importante. 1.4.3- Application aux adsorbants hydrophobés. Le plan d'expériences a été établi à partir du tableau 3.8 ci-dessous, composés de coefficients relatifs à chacun des paramètres mis en jeu lors de l'étude : N° Essai Concentration C (g.m-3) Débit G (ml.min-1) Temps ∆τ (min) 0,0000 1,0000 -1,0000 0,5000 -0,5000 0,5000 -0,5000 0,5000 -0,5000 0,5000 0,0000 -0,5000 0,0000 0,5000 -0,5000 0,5000 0,0000 0,0000 -0,5000 0,0000 0,0000 0,0000 0,0000 0,0000 0,8660 -0,8660 -0,8660 0,8660 0,2887 -0,2887 -0,2887 0,5774 0,2887 -0,5774 0,2887 -0,2887 -0,2887 0,5774 0,0000 0,2887 -0,5774 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,8165 -0,8165 -0,8165 -0,8165 0,8165 0,8165 0,2041 -0,2041 -0,2041 -0,2041 0,6124 0,2041 0,2041 -0,6124 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,7906 -0,7906 -0,7906 -0,7906 -0,7906 0,7906 0,7906 0,7906 Tableau 3.8: Plan d'expériences mis en oeuvre pour l'hydrophobisation des adsorbants existants. Ce tableau permet d'obtenir rapidement des résultats concernant l'influence des paramètres en un nombre réduits d'expériences : les résultats des essais de la seconde moitié du tableau sont prévisibles grâce aux premiers. 1.4.4- Cas des nanostructures de carbone élaborées à partir d'un précurseur organique liquide. Ici, le plan d'expériences (Tableau 3.9) est établi sur la base de l'étude bibliographique réalisée. Une adaptation des paramètres utilisés dans le cas de l'utilisation d'un précurseur gaz eux (acé tylène ) au cas du précurseur organique liquide ( hex-1-ène). La masse de catalyseur métallique Co/ γ –Al2O3 mise en oeuvre équivaut à 500 mg et le débit du gaz de balayage (N2) est de 750 ml.min-1. ________________________________ ________________________________ ________________ N°Essai 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Concentration (g.m-3) 30 60 30 90 60 30 90 90 60 30 90 60 90 90 30 90 60 30 Température (°C) 650 650 650 650 650 650 650 750 750 750 650 650 750 750 750 750 750 750 Temps (min) 15 15 30 60 60 60 15 60 60 60 30 30 30 30 30 15 15 15 Tableau 3.9: Plan d'expériences mis en oeuvre pour Co/ Al 203. Les résultats obten us doivent conduit aux premières conclusions concernant l'influence des paramètres. 2- Analyses quantitatives et qualitatives des produits issus des procédés CVD-PC et CVD-PHNC. Durant la fabrication des supports hydrophobés, l'évolution de la dégradation du précurseur organique est suivie : cela permet de quantifier les teneurs de chacun des constituants se retrouvant en aval au cours du temps ainsi que de les identifier. 2.1- Analyse quantitative. La chromatographie en phase gazeuse (CPG) est une technique de séparation sur la colonne et d'analyse des composés moléculaires thermostables, à l'état de gaz. La méthode s'applique donc aux composés gazeux ou susceptibles d'être vaporisés par chauffage sans décomposition dans l'injecteur : il s'agit de la seule méthode sélective en phase gazeuse pour l'analyse d'hydrocarbures. Méthode : Pour effectuer les analyses chromatographiques de gaz en amont et en aval, un chromatographe spécifique aux analyses en phase gazeuse Hewlett Packard 5890 A Series II est utilisé. Le principe consiste à prélever en amont du réacteur, comme en aval, un volume équivalent à 1ml de "gaz", à l'aide d'une seringue Hamilton. Ainsi, le nombre de constituants se trouvant à l'entrée ou à la sortie du réacteur peut être analysé. La figure 3.6 montre le chromatogramme obtenu dans le cas de l'hex-1-ène. Le temps de rétention caractéristique est équivalent à 1,215 ± 0,02 minutes. L'aire totale du pic affecté à l'hex-1-ène est proportionnelle à la concentration de produit mise en oeuvre. (a) (b) Conditions d'analyse : Colon ne : Temp érature ( four) : Figure 3.6 : Chromatogrammes prélèvement en amont du réacteur (a) - en aval du réacteur ( b). Par ailleurs, des analyses chromatographiques sur des produits purs permettent d'évaluer les temps de rétention de certains constituants susceptibles de pouvoir être retrouvés en aval du réacteur (figure 29b) : Toluène Xylène Ethyl-Benzène Styrène Acétone Acétylène Figure 3.7: Chromatogrammes correspondant aux analyses de précurseurs carbonés purs. 2.2- Analyse qualitative. 2.5.1- Principe. La spectrométrie de masse est une technique de détection extrêmement sensible qui permet de déterminer des structures moléculaires. Le spectromètre de masse est couplé avec une unité de chromatographie en phase gazeuse. On a ainsi une association entre une méthode séparative et une méthode d'identification qui va permettre d'étudier des mélanges complexes à l'état de traces. 2.5. 2- M atériel et méthode . L'appareil utilisé est un spectromètre de masse PERKIN ELMER Q-mass 910. Méthode : un volume d'effluents est prélevé sur des adsorbants de type TENAX et/ou CARBOXEN. De manière générale, ce volume est équivalent à 10 ml. Ensuite, la désorption de ces tubes de prélèvement est effectuée. Pour éviter d'atteindre la saturation, et afin d'obtenir des résultats facilement interprétables, l'ajout d'un split en amont ainsi que d'un split en aval sont nécessaires. Le spectrogramme obtenu est ensuite analysé, sachant que pour chaque pic, une gamme de molécules – susceptibles de répondre aux caractéristiques détectées – est proposée avec un pourcentage de probabilités affecté pour chacune d'entre elles. 3- Caractérisation de la porosité des matériaux . 3.1-Surface spécifique (B.E.T). La connaissance de la surface spécifique, est de grande importance dans la caractérisation d'une poudre ou d'un solide (extrudés ou billes), quels que soient les domaines d'application. Elle contribue à améliorer le contrôle de la réactivité d'un échantillon lorsque celui-ci est en présence d'autres matériaux : la vitesse de réaction varie avec l'état de division des matériaux. Les résultats des analyses permettent ainsi d'apprécier la qualité de la hydrophobisation du support existant ainsi que celle du précurseur catalytique. 3.1.1- Matériel. L'appareillage permettant la détermination de la surface spécifique est un ASAP 2400 de Micromeritics. Il constitue un ensemble homogène composé d'un module de dégazage à douze postes indépendants seulement pour la température, et, d'un module d'adsorption/désorption à six postes de mesure. Les phases d'adsorption et désorption sont entièrement automatisées et pilotées par logiciel sur microordinateur. Il faut aussi r avec les gaz réactifs : l'hélium qualité N55, l'azote liquide, l'azote gaz de qualité R. 3.1.2- Méthode. 3.1.2.1-Définition et principe . La surface spécifique représente la surface totale par unité de masse du produit accessible aux atomes et aux molécules. Il s'agit donc de considérer toute la surface de chaque particule, porosité ouverte comprise. Le phénomène d'adsorption se manifeste lorsque l'un gaz est mis au contact d'un corps solide, une partie des molécules d'adsorbat disparaît de la phase gazeuse pour se fixer à la surface du solide. Suivant la nature des liens entre les atomes superficiels du solide et les atomes du gaz adsorbé, on distingue : - la physisorption où les forces d'interaction sont les forces de Van der Waals, - la chimisorption où il y a formation de liens entre les atomes où molécules adsorbés. Le principe physique, basé sur l'adsorption de gaz (en général, l'azote) à basse température, permet : - une mesure sans modification de la texture géométrique de l'échantillon ; - la détermination de l'aire de la totalité de la surface des particules de poudre ou de solide, y compris la surface des pores ouverts ou criques en cul-de-sac, accessible aux molécules de gaz extérieures. Ce phénomène d'adsorption s'effectue grâce aux forces de Van der Waals à la surface de la poudre ou du solide; ces forces agissent vers l'extérieur, notamment sur des molécules de gaz qui entoureraient l'échantillon à analyser; elles se manifestent toujours à des températures basses, quelque soient la nature chimique des corps en présence159. 3.1.2.2-Principe de la théorie BET (Brunauer Emmet Teller). Les différents procédés utilisant l'adsorption physique de gaz à basse température sont fondés sur la théorie de Brunauer, Emmett et Teller (BET -1938)159. Elle permet, à partir des résultats de la porosimétrie à azote, de déterminer la surface spécifique de l'échantillon analysé. La méthode consiste à injecter un volume Vi d'azote gazeux, jusqu'à une pression P0, dans une enceinte contenant l'échantillon et dont la température se situe aux alentours de -196°C, température proche de celle de condensation de l'azote. Par conséquent, il va s'adsorber sous forme liquide à la surface de la poudre. Ce phénomène engendre une diminution de la pression d'azote dans l'enceinte jusqu'à une pression d'équilibre Pi. Une fois l'équilibre atteint, un volume V2 d'azote est injecté, jusqu'à obtenir à nouveau la pression P0. Une fois l'équilibre en pression atteint, après adsorption du gaz sur l'échantillon, on a la pression Pj. L'étude se poursuit selon ce modèle jusqu'à ce que la pression d'équilibre après adsorption soit égale à la pression P elle-même160. 3.1. 2.3 - Réalisation d 'une mesure . La quantité d'échantillon introduite dans la cellule est telle que la surface de l'échantillon est comprise entre 40 et 60 m2. Préparation et dégazage de l'échantillon : le but est d'évacuer les molécules d'eau ou de CO2 existant dans la structure poreuse de l'échantillon en procédant à un dégazage de l'échantillon sous vide et à température appropriée. Pour des adsorbants (billes ou extrudés) de granulométrie inférieure à 2,36 mm, le dégazage se fait sur le produit de masse m1 tel quel. La durée de dégazage est fonction du produit. Après le dégazage, la nouvelle masse m2 est notée. On en déduit ainsi, la masse ms de l'échantillon mise en oeuvre qui se calcule : m2 - m1 = ms (g) Mesures d'adsorption d'azote : l'échantillon est préparé, placé sur un porte-échantillon puis immergé dans un bain réfrigérant (azote liquide) contenu dans le dewar. Les cellules sont ensuite équipées des manteaux poreux qui permettrent de maintenir constant le niveau d'azote liquide autour de la cellule. Le volume mort est déterminé à l'aide de l'hélium. Injection de l'adsorbat: la méthode classique utilise l'azote. L'isotherme d'adsorption prend en compte uniquement les pressions relatives comprises entre 0 et 1 mais l'intervalle des pressions relatives comprises entre 0 et 0,3 -domaine de validité de l'équation BET (sous forme linéaire)- est suffisant pour la détermination de la surface spécifique. 3.1.2.4-Calcul de la surface spécifique. Le calcul de surface spécifique est basé sur le traitement analytique de l'isotherme d'adsorption déterminé expérimentalement ; il est ainsi possible de : définir la quantité de gaz adsorbé, calculer l'aire de la monocouche formée et donc connaître la surface spécifique du solide159. En général le domaine de linéarité ne s'étend pas au-delà d'une pression relative de 0,3. Le volume de gaz nécessaire pour recouvrir le solide d'une couche monomoléculaire permet alors de calculer la surface spécifique S (m2.g-1) de l'échantillon : où : 1 S = m N * as * Vm VM m : masse de l'échantillon, N : nombre d' Avogadro, as : aire effectivement occupée par une molécule d'adsorbat (as = 0,162 nm2) VM : volume molaire de l'adsorbat (azote) (VM= 22 414 cm3/mol) Les valeurs de surface d'une molécule de gaz sont connues. 1 S = m X 4,35 Vm Remarque : la molécule d'azote est caractérisée par une surface de 16,2 A2, celle du Krypton de 20,2 A2 et celle de l'argon de 16,6 A2 (molécules les plus courantes). Ces valeurs étant données pour une température de 77 K. 3.1.2.5-Principales caractéristiques. La physisorption est un phénomène réversible présentant les caractéristiques suivantes: -elle s'accompagne de faibles chaleurs d'adsorption sans changement structurel sur la surface, -elle peut conduire à une couverture de l'adsorbant par plus d'une couche, ce qui permet la mesure du volume poreux, -à haute température, elle n'a pas lieu (ou pour ainsi dire pas) : la préparation de surfaces suffisamment propres pour la réalisation de mesures précises est donc plus simple, -l'énergie d'activation étant inexistante, l'équilibre d'adsorption physique est rapidement atteint à l'exception de l'adsorption dans les petits pores où la diffusion peut limiter la vitesse d'adsorption, -elle est entièrement réversible : l'adsorption et la désorption peuvent être étudiées simultanément, -les molécules adsorbées ne sont pas limitées à des sites particuliers et sont libres de couvrir toute la surface161,162. 3.2 -Détermination du volume poreux. L'adsorption complète permet de connaître une caractéristique supplémentaire: le volume total poreux de l'échantillon ; et, le phénomène inverse, la désorption, donne accès à la distribution poreuse de ce même échantillon159. 3.3-Détermination du volume poreux total. Cette détermination permet de mesurer le volume total des pores de diamètre inférieur à 8 μm à l'aide d'un pycnomètre à mercure. Trois réactifs sont utilisés : du mercure tridistillé, de la graisse Apiezon qualité N et du dégraissant. 1 VPT = dgr 1 - DAb Le volume poreux total (VPT) est donné par la formule : Pour calculer le VPT, il faut donc connaître la densité absolue (DAb) et la densité de grain (dgr). La DAb est déterminée pour chaque type de produit au pycnomètre à hélium. Mesure de la densité de grain (dgr) : Avant la mesure, le produit à tester est versé dans une éprouvette, puis est pesé au mg prés : sa masse est m. La détermination du volume de produit à tester est réalisée en deux temps : tout d'abord, les différentes partie du pycnomètre sont isolées (position neutre), une première lecture de la hauteur de mercure H 1 est faite. Ensuite, le solide est immergé dans le mercure sous une pression absolue d'environ 1,8 kg/cm 2 (pression atmosphérique (760 mm Hg) plus la hauteur de la colonne de mercure entre le point médian de l'échantillon et le ménisque (620 mm Hg en moyenne)) ce qui correspond à la pénétration du mercure à travers les pores de diamètre supérieur à 8 μm environ. Ceci correspond à la deuxième lecture de la hauteur de mercure H 2. Le volume de produit est donné par la formule : ________________________________________________________________________________ V2 = S * (H1 – H2) Par différence avec le volume de l'éprouvette vide, on détermine le volume apparent du produit à tester, soit V= V1 – V2. La densité de grain est donnée par : dgr = P / V 3.4 - Répartition por . La porosimétrie au mercure permet de déterminer la répartition du volume des pores des adsorbants.
2,829
18/hal.archives-ouvertes.fr-hal-00890420-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
1,764
3,262
DU LINASTANOL Zur Geschichte des Pollinastanols Michel DEVYS Michel BARBIER lnstitut de Chimie des Substances Naturelles, 91190 Gif sur-Yvette C.N.R.S. - RÉSUMÉ Une revue est présentée sur le pollinastanol. Cette substance a été isolée pour la première fois des pollens en 1964. Elle a été retrouvée depuis chez divers végétaux et son rôle comme intermédiaire possible dans la biosynthèse du cholestérol a été établi. La structure du déméthyl-4,4' cyloartanol a été proposée et vérifiée récemment par une étude aux rayons-X ainsi que par la synthèse partielle à partir du cycloartanol. SUMMARY THE POLLI1VASTAIVOL STORY A review is presented on pollinastanol. This compound was first isolated from pollen in 1964. Since then, it has been found in several plants and its possible role in the biosynthesis of cholesterol was demonstrated. The structure of 4,4'-desmethyl cycloartanol was for pollinastanol and recently checked by X-ray determination and also by a partial from cycloartanol. Comme son nom l'indique, le pollinastanol est un alcool proposed synthesis stéroïdique saturé, isolé pour la première fois des pollens. Cette substance, dont la structure intermédiaire entre celle des alcools triterpéniques comme le cycloarténol, et le cholestérol, offre la particularité d'avoir été le premier déméthyl-4,4' stérol connu ayant un cyclopropane en position 9,19. L'histoire du pollinastanol repose sur une collaboration établie depuis 1957 avec les chercheurs de la Station de Recherches sur l'Abeille et les Insectes Sociaux à Bures-sur-Yvette. est Cette collaboration a conduit à quelques 45 travaux publiés et nous voudrions choisir cette occasion pour rendre un hommage particulier à Mlle PAIN qui en fut l'instigatrice eff cace. l La découverte du pollinastanol est due à un curieux enchaînement de circonstances. Vers 1957, en collaboration avec Mlle PAIN, a commencé une série de recherches sur les sécrétions des glandes mandibulaires des reines et des ouvrières d'abeille. Plusieurs publications s'ensuivirent, dont celles concernant la structure chimique de la substance royale (BARBIER et, EDERER L 1960; PAIN et al., 1962). Environ 2 000 reines furent utilisées et une abondante fraction stérolique, biologiquement inactive, fut récupérée et analysée. C'est ainsi que fut découvert le méthylène-24 cholestérol chez les abeilles (BARBIER et al., 1959; BARBIER et, CHINDLER 1959); jusqu'alors, ce stérol n'avait été S trouvé que chez des organismes marins, les huîtres par exemple. On a pensé que ce stérol pouvait provenir, en ce qui concerne les abeilles, de leur nourriture habituelle : le pollen; ce qui fut ensuite vérifié par Hü GEL (BARBIER, EL et, HÜG CEL et al., 1964; BARBIER, 1966.) EDERER 1960; HÜ L La découverte du pollinastanol par Hü GEL en 1962 a été tout à fait à la suite d'une analyse des stérols d'un pollen mixte de composition non déterminée; EDERER 1964). Des eaux-mères de L, BARBIER,, GFL (HÜ cristallisation déposèrent quelques 300 mg d'un produit nouveau, apparemment différent des habituels stérols. Le caractère accidentel de cette découverte devait causer bien du souci; la recherche de cette substance ne permettrait pas de la retrouver, donnant ainsi à son existence un aspect dogmatique. fortuite, Continuant néanmoins son travail sur l'échantillon isolé, HÜ GEL proposait 1964 une structure qui devait se révéler être la bonne 10 années plus tard. En effet, les méthodes utilisées alors, ne permettaient pas d'avoir une précision suffisante sur certains points de la stéréochimie de la molécule, laissant planer un doute quant à son rattachement à la famille du cycloarténol; (Hü, GEL en BARBIER,, EDERER 1964; HÜ L, 1964). GEL Une recherche systématique du pollinastanol dans des pollens de di féf rentes origines fut entreprise successivement par, REMBEL puis YS. EV D UGEL K H HücEL quittait définitivement le laboratoire en 1964, devenant Mme HÜ GEL MME après un stage de perfectionnement dans le service du Professeur O H L, URISSON à Strasbourg. Trois années passèrent et ce n'est qu'en 1967 que le O EVYS dans des pollens de la famille des Compopollinastanol fut retrouvé par D sitae : Taraxacum dens leonis et Hypochoeris radicata; (D EVYS et BARBIER, 1967). On avait constaté à cette époque que le pollinastanol était toujours accompagné dans les extraits, par le cycloartanol et un stérol en C 27' cholestérol ou /'-,7 -cholesténol. Ceci a permis de supposer l'existence d'une série biosynthétique conduisant du cycloarténol aux stérols en C 27 (fig. 2). Cette hypothèse allait mener à deux nouvelles séries de travaux. On pouvait supposer que des végétaux contenant le cycloartanol devaient contenir le pollinastanol, et cette hypothèse devait se montrer fructueuse. Le pollinastanol fut ainsi isolé de la fougère Polypodium vulgare et de la Salsepareille Smilax medica (D s EVY et al., 1969). Il est vraisemblable que cette substance est plus répandue dans la nature que ne le laissait supposer sa présence dans les pollens. La possibilité un rôle d'intermédiaire dans la du cholestérol chez les qu'elle joue biosynthèse fut démontrée la transformation d'un végétaux par pollinastanol radioactif en cholestérol des LCAIDE par plants de tabac Nicotiana tabacum; (D,A EVYS et BARBIER, 1969). Le stérol principal du pollen de la porcelle Hypochoeris radicata (qui contient le pollinastanol) est le cholestérol, ce qui se trouve être en concordance avec l'hypothèse et les résultats obtenus; (D EVYS et BARBIER, La transformation du en cholestérol 1966). pollinastanol apportait par ailleurs un intéressant en ce argument qui concerne la stéréochimie de la molécule. la stéréochimie du polliétude par les rayons X (fig. 3) et L'utilisation des ordinateurs et des méthodes directes qui une concerne d'obtenir les structures en quelques semaines, voire en si les cristaux sont valables. La preuve que la structure proposée quelques jours en 1964 était correcte fut rapidement apportée en 1973 (D UCRUIX et al., la UCRUIX et -B ASCARD 1976) alors que P, ILLY 1973; D synthèse partielle à EVY et BARBIER, D maFRT, S E partir du cycloartanol allait durer deux ans (B du C-RMN 13 du fut L'étude publiée en 1975 1975). spectre pollinastanol permettent à présent (Kxuortc-Huu et al.). Une étude des propriétés physiques (cristaux liquides) de divers esters été TALLAH et NicFioLas, 1973). Ces auteurs pollinastanol rapportée (A ont constaté que dans le pollen de Taraxacum dens leonis, le pollinastanol se trouvait principalement sous forme d'esters avec les acides laurique, myrisdu a et stéarique et donc sous forme de cristaux liquides; (pour le rôle des cristaux liquides comme constituants des parois tique, palmitique une revue cellulaires, sur voir OULIGAND 1975). B, CONCLUSION Neuf années se sont écoulées entre le premier isolement du pollinastanol et la preuve définitive de sa structure. Il est à ce sujet intéressant de noter qu'une étude spécialisée (celle des stérols de l'abeille et des pollens) a conduit à des résultats plus généraux, et ceci, grâce à la persévérance des divers chercheurs qui se sont succédés sur ces problèmes. Le pollinastanol représente en effet une voie possible de la biosynthèse du cholestérol chez les végétaux. Reçu pu6lication en septembre 1976. Eingegangen im September 1976. pour REMERCIEMENTS Les plus vifs remerciements sont dus à M. LouvEAuX, Directeur, à Mlle PAIN, ainsi qu'à le personnel de la Station de Recherches sur l'Abeille et les Insectes Sociaux, Bures-surYvette. tout ont Nous remercions les Professeurs E. L nEttES et R. CHAUVIN pour l'intérêt E à ces travaux. constant qu'ils porté ZUSAMMENFASSUNG ZUR GESCHICHTE DES POLLINASTANOLS Es wird über das Pollinastanol berichtet. Diese Substanz wurde 1964 erstmalig aus Pollen isoliert. Seitdem wurde sie in verschiedenen Pflanzen wiedergefunden und ihre Rolle als mögliches Zwischenglied in der Biosynthese des Cholesterols bewiesen. Die Struktur des 4,4' -Desmethyl-Cycloartanols wurde vorgeschlagen und kürzlich durch eine Röntgenstruktur- analyse sowie eine vom Cycloartanol ausgehende Partialsynthese bestätigt. RÉFÉRENCES BIBLIOGRAPHIQUES TALLAH A. M., N A ICHOLAS H. J., 1973, Liquid crystalline properties of fatty acid esters. Molecular Crystals and Liquid Crystals, 24, 213-222. BARBIER some pollinastanol M., 1966, Le 24-méthylène cholestérol. Ann. Abeille, 9, 243-249. Hü M. F., L EDERER E., 1960, Isolement du 24-méthylène cholestérol à BARBIER M., GEL partir du pollen de différentes plantes. Bull. Soc. Chim. Biol., 42, 91-97. BARBIER EDERER E., 1960, Structure chimique de la Substance Royale de la reine d'abeille. M., L Acad. Sc., 250, 4467-4469. BARBIER M., N E R H C STEI I T., SC HINDLER O., L EDERER E., 1959, Isolation of 24-methylen cholesterol from honeybees Apis mellifica. Nature, 184, 732. BARBIER M., S CHLINDLER O., 1959, Isolierung von 24-Methylen Cholesterin aus Königinnen und Arbeiterinnen der Honigbiene Apis mellifica. Helvetica chimica Acta, 42, 1998-2005. EVYS M., BARBIER M., 1975, Sur la synthèse du pollinastanol à partir du cycloEKAERT A., D B artanol. Helvetica Chimica Acta, 58, 1071-1077. OULIGAND Y., 1975, Les cristaux liquides. Biochimie (éditorial), 57, VII-VII. B EVYS M., A D AIDE A., BARBIER M., 1969, Biosynthesis of cholesterol from pollinastanol in C L the tobacco, Nicotiana tabacum. Phytochemistry, 8, 1441-1444. EVYS M., A D LCAIDE A., PINTE F., BARBIER M., 1969, Pollinastanol dans la fougère Polypodium vulgare et la salsepareille Smilax medica. Comptes-rendus Acad. Sc., D, 269, 2033-2035. EVYS M., BARBIER M., 1967, Isolement du pollinastanol et d'une série de A_ -stérols des D pollens de deux Composées. Bull. Soc. Chim. Biol., 49, 865-871. ATTERSON G. W., D OYLE P. Y., P D UTKY S. R., T HOMSON M. Y., 1972, Triparanol inhibition of sterol biosynthesis in ella emersonii. Phytochemistry, 11, 1951-1960. Ducxmx A., -BiLLY ASCARD C., 1976, Détermination par les rayons-X de la structure moléP culaire du pollinastanol. Acta Crystallographica, B 32, 76-81. ASCARD C., D P ILLY EVYS M., BARBIER M., L EDERER E., 1973, X-ray crystal DucRUlx A., -B and molecular Structure of pollinastanol acetate, a 9, 19-cyclopropane steroid, Chem. Comm., 929-930. GEL M. F., 1964, Sur les stérols du pollen. Thèse Doct. Ing. Paris. HÜ EDERER E., 1964, Sur le pollinastanol, nouveau stérol du pollen. GEL M. F., BARBIER M., L HÜ Bull. Soc. Chim., 2012-2013. GEL M. F., V HLT ETTER W., A UDIER H., BARBIER M., L EDERER 1!, 1964, Analyse des stérols Comptes-rendus du pollen par spectrométrie de masse. Phytochemistry, 3, 7-16. EVYS M., BARBIER M., L UKACS G., -Huu H K UONG F., S ANGARE M., C HARI V. M., B EKAERT A., D 1975. Carbon-13 nuclear magnetic resonance spectral analysis of cycloartanol and related compounds. Tetrahedron Letters, 1787-1790. - NAPP F. K - HILIPPS D. O., G OAD L. J., G OODWIN T. W., 1972, Isolation of F., P 9 fi - 19 - Cyclo - 5a - ergost - 24 (28)- en - 3 fi ol from Musa 14 a-methyl sapientum. Phytochemistry, 11,3497-3500. PAIN J., BARBIER M., BOG DANOVSKY D., L EDERER E., 1962, Chemistry and biological activity of the secretions of queen and worker honeybees. Comp. Biochem. Physiol., 6, 233-241. OHMER R RANDT D. R., 1973, Les stérols M., B J. Biochem., 36, 446-454. et leurs précurseur; chez Astasia.
34,778
3aeefc851fe84cecadfbe876979dc1a8_1
French-Science-Pile
Open Science
Various open science
2,010
SYAL : UN NOUVEL OUTIL POUR LE DEVELOPPEMENT DE TERRITOIRES MARGINAUX. LES LEÇONS DE L'ALLIANCE DES AGRO-INDUSTRIES RURALES DE LA SELVA LACANDONA, CHIAPAS.. ISDA 2010, Jun 2010, Montpellier, France. 12 p. &#x27E8;hal-00521013&#x27E9;
None
French
Spoken
6,636
10,072
SYAL : UN NOUVEL OUTIL POUR LE DEVELOPPEMENT DE TERRITOIRES MARGINAUX. LES LEÇONS DE L’ALLIANCE DES AGRO-INDUSTRIES RURALES DE LA SELVA LACANDONA, PAS. HAL a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. SYAL : UN NOUVEL OUTIL POUR LE DEVELOPPEMENT DE TERRITOIRES MARGINAUX. LES LEÇONS DE L’ALLIANCE DES AGRO-INDUSTRIES RURALES DE LA SELVA LACANDONA, CHIAPAS. Francois BOUCHER *, Denis REQUIER-DESJARDINS **, Virginie BRUN *** * CIRAD-UMR Innovation / IICA-México. [email protected] ** IEP-Toulouse. [email protected] *** IICA-México. [email protected] — Depuis ses débuts dans les années 1980, l’agro-industrie rurale (AIR) est apparue comme un moyen efficace de lutte contre la pauvreté dans les zones rurales marginalisées, du fait de sa capacité à contribuer à l’amélioration globale des conditions de vie des petits producteurs. Cet outil de développement a été complété dans les années 90 par les Systèmes agroalimentaires localisés (SYAL) et le processus de leur activation. A partir de l’expérience d’un projet de développement d’AIR impulsé dans la Selva Lacandona (Chiapas, Mexique), nous présentons quelques-unes des leçons tirées de ce projet de développement. Un des principaux résultats a été de pouvoir identifier et définir les conditions de viabilité des AIR de la Selva Lacandona. Si la rentabilité économique des micro-entreprises s’avère essentielle pour garantir leur viabilité, celle-ci ne semble pas centrale dans le sens où elle ne pose pas de réels problèmes. En revanche, deux aspects sont apparus comme fondamentaux pour assurer le développement durable d’AIR dans une région marginalisée comme celle de la Selva Lacandona: la nécessité d’un environnement préalable favorable, notamment la présence de biens publics locaux fonctionnels, et la résolution des problèmes d’organisation et de leadership. Mots clés : SYAL, pauvreté rurale, action collective, Mexique. Abstract — Since its beginnings in the eighties, Rural Agro-Industry (RAI) has emerged as an effective way to fight against poverty in marginalized rural areas, because of its ability to contribute to the overall improvement of small producers’ living conditions. This development tool has been completed in the nineties by the Localized Agri-food Systems concept (SYAL in French) and the process of their activation. From the experience of a RAI development project promoted in the Selva Lacandona (Chiapas, Mexico), we present some lessons learned from this development project. One of the principal results was to identify and define the conditions of RAI sustainability in the Selva Lacandona. If economics profitability of the micro-enterprises proved to be essential to ensure their viability, it does not seem central as it doesn’t represent a real problem. On the other hand, two aspects appeared to be fundamental to guarantee the RAI sustainable development in such marginalized region: the necessity of a prior favorable environment, in particular trough the presence of functional local public goods, and the resolution of organization and leadership problems. Key words: Local Agri-food Systems, rural poverty, collective action, Mexico. ISDA 2010, 1 SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D., Brun V . INTRODUCTION Depuis ses débuts dans les années 1980, l’agro-industrie rurale (AIR) est apparue comme un moyen efficace de lutte contre la pauvreté dans les zones rurales marginalisées, du fait de sa capacité à contribuer à l’amélioration globale des conditions de vie des petits producteurs par l’augmentation des revenus des ménages et la création d’emplois. Par la suite, la capacité des AIR à se concentrer géographiquement et à s’organiser pour mettre en valeur des ressources territoriales communes a conduit à la définition du concept de système agroalimentaire localisé (SYAL) comme un modèle de développement innovant, caractérisé par une relation forte au territoire, des réseaux sociaux localisés, des savoir-faire locaux et une capacité de ses acteurs à « activer » collectivement des ressources spécifiques. Dans le contexte actuel de crise et de prise de conscience grandissante des menaces liées aux modes de production dominants et à la globalisation des marchés (dégradation des ressources naturelles, exclusion des moins « compétitifs », inégalité du partage des richesses, etc.), les AIR puis les SYAL représentent donc une alternative intéressante de par leur capacité à générer des processus dynamiques de développement local économiquement viables, socialement inclusifs et durablement acceptables sur le plan environnemental. Ces SYAL, ou concentrations géographiques d’AIR, que l’on observe surtout en Amérique Latine, donnent une identité territoriale forte aux dynamiques de développement local, qui reposent sur des articulations complexes entre territoire, acteurs, produits et système d’innovation (Boucher et al., 2003). Fort de ces constats, des chercheurs ont dans un premier temps étudié et analysé des cas de concentrations géographique d’AIR dans les Andes et en Amérique Centrale, ce qui a permis de comprendre leurs conditions de développement, liées principalement à des actions collectives, et de mettre au point une méthode d’accompagnement de l’activation de leurs ressources territoriales (Boucher, 2004 ; Correa et al., 2006) qui sera développée dans la première partie de cet article. A partir des connaissances acquises sur l’activation des SYAL, un projet de développement de micro-entreprises rurales de type AIR a été impulsé dans plusieurs communautés indiennes de la Selva Lacandona du Chiapas, au Mexique, région qui compte parmi les plus isolées et les plus marginalisées et pauvres du pays. L’objectif de ce projet était triple : réduire la pauvreté dans plusieurs microrégions de la Selva Lacandona ; diminuer la pression sur les ressources naturelles et ralentir les processus de dégradation environnementale ; intégrer les politiques de développement social à un cadre de développement territorial, participatif et soutenable. Deux grandes lignes d’action ont ainsi été définies sur la base de ces objectifs : - d’une part, l’aide à l’organisation et à la mise en route de seize projets d’AIR de différents types: transformation agroalimentaire (café torréfié et moulu, chocolat à fondre, champignons comestibles, herboristerie, tortillas de manioc-maïs, petites usines de conditionnement de fruits tropicaux, élaboration de confitures), artisanat (broderies, uniformes scolaires, bijoux en fibres) et autres (usine de purification et de mise en bouteille de l’eau, aliments pour bétail) ; - d’autre part, le renforcement des capacités de gestion et d’innovation des acteurs impliqués. L’objectif de cette communication est de présenter quelques-unes des leçons tirées de ce projet de développement. L’article est divisé en trois parties : la première est centrée sur les défis actuels des AIR et des SYAL et sur leur capacité à générer des dynamiques de développement, la deuxième présente les cas d’étude et la méthodologie employée, tandis que la troisième analyse les principales leçons tirées des cas étudiés et du projet dans sa globalité. SYAL : un nouvel outil pour le d éveloppement de territoires marginaux . oucher F., D., Brun V. 1. LE SYAL POUR ACCOMPAGNER LES « MILIEUX INNOVATEURS » DANS LES REGIONS RURALES MARGINALISEES De l’AIR comme moyen de lutte contre la pauvreté au SYAL comme outil de développement local L’AIR, de par ces fortes articulations au territoire, a donc repris à son compte le thème du SYAL apparu dans les années 1990 en France. Le concept de SYAL s’inspire largement des travaux conduits sur les Systèmes Productifs Locaux (SPL) qui ont abondamment traité de la thématique de l’innovation autour de la notion de « milieux innovateurs », en référence à la capacité de certains territoires à générer de l’innovation et à la diffuser au sein de réseaux d’acteurs territorialisés (Requier-Desjardins, 2007). La petite taille des AIR concernées, leur capacité de réaction rapide et flexible, leur accès à des marchés de niche porteurs (production biologique, commerce équitable, produits traditionnels et ethniques), leur ancrage territorial, communautaire et identitaire, apparaissent en effet comme des avantages à une époque où le besoin d’innovation concernant l’organisation et le fonctionnement des systèmes agricoles et agroalimentaires est devenu néce De nouvelles études montrent pourtant qu’il pourrait exister de fortes disparités entre les acteurs d’un même territoire en termes de degré et de type de pauvreté, asymétries d’information, possession et accès à certaines ressources, identités socioculturelles et capital social, ce qui rendrait difficile la cohésion des groupes et les relations de confiance. Cette constatation empirique, rapprochée d’éléments des nouvelles théories de l’économie du territoire, ont permis de formuler une nouvelle proposition qui valorise les processus de développement local basés sur des ressources et actifs spécifiques locaux, parmi lesquels se distinguent les réseaux d’acteurs locaux, les caractéristiques des produits du « terroir » et la revitalisation des cultures régionales et patrimoniales. Considéré sous cet angle, le territoire et la territorialité peuvent jouer un rôle de premier plan comme réponse « locale » à la globalisation. C’est ainsi que la notion de SYAL s’est progressivement consolidée comme un nouveau modèle de développement dans le champ agroalimentaire et des AIR. Les SYAL se définissent comme « des organisations de production et de services (unités de production agricoles, entreprises agroalimentaires, commerciales, de services, de restauration, etc.) associées de par leurs caractéristiques et leur fonctionnement à un territoire spécifique. Le milieu, les produits, les personnes, leurs institutions et leurs savoir-faire, leurs comportements alimentaires, leurs réseaux de relation se combinent dans un territoire pour produire une forme d’organisation agroalimentaire à une échelle spatiale donnée » (Muchnik et Sautier, 1998). Dans ce contexte, la notion de territoire est entendue comme un « espace construit historiquement et socialement, où l’efficacité des activités économiques est fortement conditionnée par les liens de proximité et d’appartenance à cet espace (Boucher, 2004). Les SYAL peuvent être considérés comme une forme particulière de Systèmes Productifs Locaux (SPL) mais également comme un type particulier de cluster rural ayant les capacités d’être activé au moyen d’actions collectives. Toutefois, la caractéristique principale du SYAL réside dans sa relation spécifique au territoire du fait de son caractère agroalimentaire et de ses liens, d’une part en amont avec l’agriculture qui permet de valoriser les ressources naturelles et de renforcer la relation au terroir et, d’autre part, en aval avec le consommateur, ce qui renvoie à une dimension territoriale de la qualité. Cette double caractéristique positionne ces systèmes productifs au carrefour entre les filières productives structurées verticalement et les réseaux territorialisés. Cette « orthogonalité » filière productive – territoire (Requier-Desjardins et al., 2003) peut être considérée comme un élément spécifique du secteur agroalimentaire. L’analyse des dynamiques de développement des SYAL s’appuie également sur l’action collective qui permet d’activer les ressources spécifiques ou territoriales. L’activation renvoie ISDA 2010, Montpellier 28-30 Juin 2010 3 SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D., Brun V. à la capacité des concentrations géographiques d’AIR à mobiliser collectivement des ressources spécifiques pour améliorer leur niveau de compétitivité et permet, comme le montre H.Schmitz (1997), le passage ou la conversion d’avantages passifs en avantages actifs en créant de l’efficacité collective (Boucher, 2004). A. Torre (2000) a complété cette vision en analysant le lien entre proximité, action collective et qualification (ou diversification) des produits agroalimentaires mettant en jeu des formes spécifiques de coordination des acteurs. A ce titre, le dynamisme des SYAL, dans la mesure où il se base sur l'innovation au sens large (technologie mais aussi produits, marchés, organisations, etc.) nécessite la mise en place de réseaux entre acteurs internes au SYAL mais aussi extérieurs. Cela entraîne donc en particulier la nécessité d’une infrastructure en termes de réseaux de communication. Dans le cas des SYAL, on peut distinguer deux étapes successives dans le processus d’activation: la première, appelée action collective structurelle, qui représente le fait de créer un groupe (association, coopérative ou autre forme d’organisation), et la seconde, appelée action collective fonctionnelle, qui repose sur la construction d’une ressource territorialisée en relation avec la qualité : marque collective, labels, indications géographiques, appellation d’origine contrôlée (AOC), autres (Boucher, 2004). Toutefois, il est important de souligner que les ressources activées vont acquérir par la suite un caractère de “bien de club” dans la mesure où des dispositifs d’exclusion vont être mis en place pour limiter les comportements de « passagers clandestins ». Ces dispositifs représentent à la fois une condition d’efficacité de l’activation et un risque de marginalisation de certains acteurs du territoire. La capacité d’évolution du système par un changement de la stratégie des groupes qui jouent un rôle central dans l’activation, dans un sens qui aille vers leur élargissement, peut réduire ces risques de marginalisation. Il est important également de souligner que les possibilités de succès des actions collectives s’obtiennent quand les groupes formés sont relativement petits et quand il existe une grande confiance entre eux (Olson, 1992). La notion de SYAL a également servi à conceptualiser une nouvelle vision du développement rural et de la lutte contre la pauvreté, dans la perspective des travaux réalisés par Amartya Sen sur les « capabilités » (capabilities). Dans cette approche, la pauvreté peut se définir comme une déficience en termes de capabilités fondamentales, définies comme « l’ensemble des vecteurs de fonctionnements, entendus comme les conditions d’existence ou d’action, qui reflètent la liberté d’une personne à se réaliser à travers le mode de vie qu’elle a choisi » (Sen, 1992). C’est ainsi que l’approche SYAL a été employée, comme nous le verrons dans le chapitre suivant, dans des projets de développement et de consolidation d’AIR où ce qui est avant tout recherché est l’amélioration du niveau de vie des producteurs présentant de moindres « capabilités » et un faible niveau de capital humain, à travers la mise en place de processus collectifs. Bien souvent, ces groupes d’AIR n’ont jamais été pris en compte par les programmes de développement du fait de leur situation en général considérée a priori comme non viable. Au mieux, ils bénéficient de programmes publics à visée « assistentialiste » bien plus que d’apprentissage et de développement économique. 2. LE CAS DE L’ALLIANCE DES AIR DE LA SELVA LACANDONA AU CHIAPAS, MEXIQUE. Partant de ce constat, un projet de développement de micro-entreprises rurales de type AIR a été impulsé dans plusieurs communautés indiennes de la Selva Lacandona du Chiapas, au Mexique, région qui compte parmi les plus isolées et les plus marginalisées et pauvres du pays. 2.1. La région d’étude : la Selva Lacandona La Selva Lacandona est une région tropicale du sud-est de l’état du Chiapas, au Mexique, située à la frontière avec le Guatemala. La région, qui représente 24% de la superficie totale ISDA 2010, Montpellier 28-30 Juin 2010 4 SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D., Brun V. du Chiapas, est relativement isolée géographiquement du reste du territoire et présente des niveaux de pauvreté particulièrement élevés. Elle a été dans les années 1990 le centre des conflits sociaux liés au soulèvement de l’Armée Zapatiste de Libération Nationale (EZLN). La région est majoritairement habitée par des paysans indiens qui cohabitent avec des groupes de migrants métis et indiens arrivés entre 1970 et 1990 après avoir reçu des dotations de terres dans le cadre de la réforme agraire ou avoir été déplacés du fait de conflits religieux. Ces migrations et déplacements forcés de population se sont traduits par une forte croissance démographique entre les années 1980 et 2000 : 118 517 et 493 797 habitants respectivement. Cependant, depuis quelques années, la Selva Lacandona connaît un exode croissant des jeunes qui fuient la région face au manque de revenus et d’opportunités d’emploi. La Selva Lacandona possède un patrimoine culturel, historique et archéologique très important. Elle renferme une superficie forestière considérable bien que celle-ci ait connu une diminution de l’ordre de 41% entre 1979 et 1993 équivalant à un rythme annuel de 33 500 hectares de forêt perdus, soit le taux de déforestation le plus élevé du pays. Sur le plan économique, la région est très nettement agricole. Les principales productions sont le maïs et le haricot et quelques productions commerciales comme le cacao et le café. On y trouve également quelques élevages de porcins et de bovins de petite taille qui servent à valoriser les excédents de grains. Le tourisme alternatif et solidaire, de même que l’écotourisme, se sont bien développés ces dernières années mais restent encore insuffisants pour permettre une véritable voie alternative de développement. La région montre par ailleurs des indicateurs de développement préoccupants: seulement 24% de la population a accès à un service de santé, 33% de la population de plus de 15 ans est analphabète, 40% des habitations n’ont pas accès à l’eau, 82% de la population vit dans des communautés présentant des indices de marginalisation sociale élevés ou très élevés et 86% reçoit un salaire inférieur à deux salaires minimums1. Le dernier indice de marginalisation établi en 2005 par le Conseil National de la Population (CONAPO) révèle que cinq des neuf municipes composant la Selva Lacandona ont un indice de très haute marginalisation, tandis que les quatre autres de haute marginalisation. Autrement dit, la majorité des habitants de cette région vit en situation de pauvreté du fait d’un manque d’accès à l’éducation, à un habitat digne et à des revenus monétaires suffisants. Il est important de souligner que la Selva Lacandona est un territoire très isolé, souffrant d’un manque patent d’infrastructures et de services de base (routes en particulier). Si le taux d’électrification est relativement haut, les conditions de distribution sont très mauvaises (voltage variable et bas, coupures récurrentes et longues), ce qui rend difficile l’installation et le fonctionnement de machines électriques. Actuellement, l’accès aux services de téléphonie fixe et mobile est quasiment inexistant ou alors très défaillant. Les services de transport de personnes et de marchandises sont chers et incertains du fait du non respect des horaires. On trouve par ailleurs un nombre très limité de stations-service et la distribution d’essence y est de toute façon très incertaine. Il n’y a aucune agence bancaire dans la région, ce qui rend l’accès au crédit très difficile et la mise en place de projets de microfinance quasi impossible. Du fait des difficultés de transport, de l’éloignement de la région et des difficultés pour se loger et obtenir des factures, la présence des institutions et organismes de développement, qu’ils soient publics ou privés, est très faible. Au final, ces conditions ne sont 1 Le salaire minimum au Mexique sert à la fois de cadre légal pour fixer les salaires et de valeur de référence pour exprimer le niveau de vie, le prix d’un bien, le montant d’une contravention, etc. Son montant varie en fonction de l’appartenance de la région considérée à l’une des trois aires géographiques définies à l’échelle du pays par le gouvernement mexicain, qui sont censées représenter la différence du coût de la vie. Dans le Chiapas, le salaire er minimum est égal au 1 janvier 2010 à 54,47 pesos mexicains par jour, soit 3,34 € (taux de change d’avril 2010). SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D Brun V absolument pas propices au développement, particulier de petites entreprises, ni à l’entrée des canaux modernes de commercialisation 2.2. Le projet PRODESIS Le projet « micro-entreprises rurales » du consortium IICA-CIRAD-CATIE a été conduit dans le cadre du Projet de Développement Social Intégré et Soutenable de la Selva Lacandona (PRODESIS) financé par l’Union Européenne et le Gouvernement du Chiapas. Entre autres activités, le PRODESIS a appuyé et accompagné le développement de seize projets d’AIR (cf. tableau 1) à travers, d’une part le financement d’investissements de base en infrastructures et équipements et, d’autre part, la formation de personnel. Dans ce cadre, le projet « micro-entreprises rurales » avait pour objectif d’apporter une assistance technique à la création de ces projets et à leur consolidation en entreprises solidaires rentables à travers le développement de technologies, de stratégies commerciales et de systèmes de financement, l’amélioration de l’accès à l’information et la consolidation des organisations au niveau local et régional. 2.3. Cas d’étude, méthodologie et portée de l’intervention Les projets ayant bénéficié de l’intervention du PRODESIS sont 16 agro-industries rurales, dont les caractéristiques sont présentées dans le tableau suivant. Tableau 1. Liste des AIR considérées dans le cadre du PRODESIS et de l’étude sur les “micro-entreprises” réalisée par le consortium IICA-CIRAD-CATIE Territoires Micro-région Agro-industries Rurales et localisation spécifique Herboristerie (Nuevo Jerusalén, Mpio. Las Margaritas) Nuevo Huixtán Artisanat (Nuevo Jerusalén, Mpio. Las Margaritas) Artisanat (San Pedro Yutniotic, Mpio. Las Margaritas) Mise en bouteille d’eau (Nuevo Huixtán, Mpio. Las Margaritas) Comitán de Domínguez Maravilla Tenejapa Amatitlán Francisco I. Madero Marques de Comillas Palenque Benemérito de las Américas Comunidad Lacandona Ocosingo Na-ha Conditionnement de bananes (Municipio de Maravilla Tenejapa) Fabrique de chocolat (San Felipe Jataté, Mpio de Maravilla Tenejapa) Groupe de femmes boulangères (San Felipe Jataté, Mpio. Maravilla Tenejapa) Conditionnement de fruits commestibles de palmiers (Tziscao, Municipio de la Trinitaria) Torréfaction, mouture et conditionnement de café (Tziscao, Municipio de la Trinitaria) Artisanat à base d’ixtle (Zamora Pico de Oro, Mpio. Marques de Comillas) Aliment pour bétail (Nuevo Orizaba, Mpio de Benemérito de las Américas) Vêtements sportifs (Benemérito de las Américas) Moulin à tortillas (Lacanja-Chanzayab, Mpio. Ocosingo) Artisanat (Frontera Corozal, Mpio. Ocosingo) Champignons type setas (El Tumbo, Mpio. Ocosingo) Torréfaction, mouture et conditionnement de café biologique (Ignacio Zaragoza, Mpio. Ocosingo) La méthodologie générale d’intervention du projet trouve son fondement dans l’analyse des dynamiques de développement liées au processus d’action collective (cf. supra). Il convient en premier lieu d’utiliser la méthode d’activation des ressources territoriales établie par Boucher (2004) à partir du cas des SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Re - D., Brun V. Cette méthode distingue trois étapes successives dans le processus d’activation : a) le diagnostic ; b) le dialogue pour l’activation et c) le processus d’activation en lui-même, accompagné par des techniciens spécialistes. La mise en œuvre de cette méthode s’appuie également sur une action collective structurelle, suivie d’une action collective fonctionnelle comme nous avons pu l’expliquer antérieurement. A partir d’une adaptation de la méthodologie et après avoir réalisé les deux premières étapes de la méthode d’activation (diagnostic et dialogue pour l’activation), la stratégie générale de l’intervention du consortium a pu être établie. Celle-ci était structurée autour de deux axes: l’appui aux projets individuels et la stratégie globale au niveau du territoire (cf. figure suivante). Figure 1. Stratégie d’intervention appliquée Source: rapport final PRODESIS (Boucher et al., 2007) La méthode d’intervention a en outre été conçue dans une vision participative et intégratrice accordant une importance prépondérante à la durabilité du processus. Il s’agissait de renforcer les capacités d’organisation entrepreneuriale des AIR mais également celles ayant trait à la technologie, l’hygiène, la qualité et l’accès aux marchés locaux et régionaux. Dans le cadre de l’intervention technique pour l’accompagnement des projets, une méthode de formation adaptée aux spécificités de la Selva Lacandona, des communautés et du niveau de connaissance de chaque groupe, a ainsi été conçue dans un objectif d’apprentissage progressif. Pour chaque groupe, des ateliers de formation spécifiques ont été organisés in situ autour de thèmes identifiés comme prioritaires : innovation technologique, organisation et gestion d’une entreprise, amélioration des procédés de production, analyse de marché et commercialisation. Ces ateliers, qui visaient également à apprendre aux membres des groupes à calculer le coût de revient, la valeur ajoutée et le bénéfice liés aux projets, ont en général donnés de bons résultats. Soulignons également que la réalisation des diagnostics des seize projets a été complétée par des visites de suivi régulières. Au final, les fiches de diagnostic, celles de suivi et les résultats tirés des ateliers participatifs ont constitué le principal matériel empirique pour notre analyse. Cette première étape a ensuite permis d’induire une dynamique territoriale collective autour de la consolidation de ces différentes AIR, de la diffusion des savoir-faire et de l’innovation, dynamique qui s’est concrétisée par la formalisation d’une organisation, « l’Alliance des AIR de la Selva Lacandona », et la création d’une marque collective « Agroindustries rurales de la Selva Lacandona ». ISDA 2010, 3. PRINCIPAUX RESULTATS ET LEÇONS Un des principaux résultats du projet a été de pouvoir identifier et définir les conditions de viabilité des AIR de la Selva Lacandona. Si la rentabilité économique des micro-entreprises s’avère essentielle pour garantir leur viabilité, celle-ci ne semble pas centrale dans le sens où elle ne pose pas de réels problèmes (cf. infra). En revanche, deux aspects sont apparus fondamentaux pour assurer le développement durable d’AIR dans une région aussi marginalisée que celle de la Selva Lacandona: la nécessité d’un environnement préalable favorable, et la résolution des problèmes d’organisation et de leadership. Le premier point, déjà soulevé par de Janvry et al. (2002) dans leur approche en trois phases de la réduction de la pauvreté, se réfère à la nécessité d’investir en premier lieu dans les conditions préalables (éducation, santé, nutrition, infrastructures et services de base) indispensables à la création et à la pérennisation de petites entreprises en milieu rural. Il est en effet apparu qu’une dynamique de type SYAL, basée sur une diffusion horizontale des processus d’innovation et sur le savoir-faire et les ressources spécifiques d’un territoire, est intrinsèquement liée à la présence et à l’usage de biens publics locaux fonctionnels, ce qui fait en général défaut dans les régions isolées et marginalisées. Le second point se réfère aux problèmes d’organisation, d’action collective et de leadership au sein des groupes, qui résultent le plus souvent d’une méfiance entre les membres et d’une définition des rôles mal comprise. La principale conséquence est un blocage des dynamiques collectives, qui se manifeste par la présence de « passagers clandestins » au sein des groupes et par des situations dans lesquelles les leaders se comportent comme « le chien du jardinier »2, autrement dit qu’ils ne veulent ni faire ni laisser-faire. 3.1. La revalorisation des activités productives Un premier résultat positif que l’on peut tirer de cette expérience est la revalorisation des activités productives et le fait que les groupes puissent être capables de générer des revenus suffisants pour les familles rurales impliquées. En effet, il ne faut pas oublier que ces groupes sont majoritairement composés de personnes caractérisées par un faible niveau de « capabilités » (santé, éducation, revenus monétaires) et qu’ils ont pendant longtemps été considérés comme non viables par les institutions et organismes de développement. Un des apports de ce projet est précisément d’avoir pu montrer que même lorsqu’il est difficile et compliqué de travailler avec de tels groupes, il est possible d’obtenir des résultats économiques satisfaisants pour les producteurs impliqués. Dans le cas des groupes de femmes, il est par exemple apparu que leurs nouvelles activités restaient compatibles avec les tâches domestiques, en plus de participer à un rééquilibrage des relations hommefemme dans les familles et de leur apporter des facteurs de sociabilisation et de coopération très importants pour elles dans des zones aussi isolées et difficiles. En second lieu, les résultats des ateliers participatifs ont montré que les AIR pouvaient apparaître comme rentables et participer ainsi à la dynamisation de l’économie locale à travers la valorisation ou l’achat de matières premières produites localement et la rémunération de la main d’œuvre. Les bénéfices dégagés par l’activité des micro-entreprises se sont en effet avérés relativement élevés par rapport aux salaires locaux et aux prix du 2 L’expression « faire comme le chien du jardinier » fait référence à un vieux dicton, peut-être d’origine péruvienne, intitulé « El perro del hortelano, que no come ni deja comer » (le chien du jardinier, qui ne mange ni ne laisse manger les autres). L’expression est devenue populaire après que l’Espagnol Lope de Vega l’a reprise en 1618 dans son œuvre « El perro del Hortelano ». ISDA 2010, Montpellier 28-30 Juin 2010 8 SYAL : un nouvel outil pour le d éveloppement de territo ires marginaux. B oucher F. , Requier-Desjardin s D., Brun V. marché. Par exemple, dans le cas du chocolat à fondre, le bénéfice obtenu pour 1 kg de cacao transformé est de 20,75 pesos (1,27 €), ce qui comparé à la vente d’un kg de cacao brut (15 pesos, soit 0,92 €) représente une valeur ajoutée non négligeable. Dans le cas de la transformation d’une fibre végétale en fils à tisser (ixtle), la valeur ajoutée est proche de 400% entre la vente obtenue du produit brut et celle de fils prêts à l’emploi. On pourrait multiplier ainsi les exemples. Cependant, il convient de mesurer ces résultats en fonction des marchés visés. En effet, selon les cas, les marchés peuvent être locaux et touristiques mais également régionaux et nationaux. Si dans les deux premiers cas les micro-entreprises sont relativement protégées de la concurrence, il en va tout autrement dans le cas des marchés régionaux et nationaux où la participation d’autres acteurs est élevée et où les aspects de qualité, présentation et marketing sont devenus primordiaux. Il faudrait donc étudier d’une manière plus poussée tous les éléments nécessaires à une analyse de rentabilité pour pouvoir tirer de plus amples conclusions, en particulier le facteur temps (durée du projet). 3.2. La nécessité d’un environnement favorable Un troisième résultat fondamental de ce projet a permis de mettre en évidence que la durabilité et l’activation d’un SYAL ne reposent pas uniquement sur les aspects économiques des activités mais également sur beaucoup d’autres facteurs qui renvoient à l’environnement institutionnel et de services des régions considérées. Ceci s’est particulièrement ressenti dans la Selva Lacandona du fait de son isolement et des difficultés d’accès aux marchés et aux services de base : téléphonie, Internet, transport, services financiers, services d’ technique et mécanique, etc. Cette situation a, de fait, empêché un dynamisme plus fort des AIR. En ce sens, il a pu être mis en évidence que si les projets AIR de la Selva Lacandona rencontrent actuellement de grandes difficultés pour se développer, ce n’est pas tant du fait d’un problème de rentabilité que d’une série d’éléments qui ont à voir avec les conditions de pauvreté et de marginalisation socio-économique de la région (faiblesse des infrastructures routières, des services de transport et de communication, etc.) ainsi qu’avec le faible niveau de compétences générales des groupes (niveau éducatif, connaissances, etc.). Il apparaît en effet qu’il faille disposer de biens publics locaux fonctionnels avant de pouvoir envisager un processus d'activation. 3.3. Les problèmes de leadership Le développement des projets a également pâti d’un manque de compétences entrepreneuriales de base au sein des groupes, ce qui a entraîné plusieurs problèmes d’organisation dans les coopératives de production, relativement à leur formalisation, aux relations entre leurs membres, à la sélection des leaders et à la résolution des conflits. Ceci s’est en particulier traduit par des problèmes liés à la présence de “passagers clandestins” qui ont cherché à profiter des avantages offerts par les coopératives sans rien apporter en retour. Une autre manifestation de ces dysfonctionnements organisationnels a résidé dans les conflits entre certains membres des groupes, donnant lieu au problème connu comme “le chien du jardinier” (cf. supra), ce qui s’interpréterait ici comme quelqu’un qui ne travaille pas ni ne laisse les autres membres de la coopérative travailler. Ou dit autrement, certains peuvent être de très bons leaders pour la communauté mais de piètres entrepreneurs. Ces différents problèmes ont donné lieu à une nouvelle étape dans la vie des projets d’AIR. Si la majorité d’entre eux sont maintenant en route et possèdent les infrastructures et l’équipement nécessaire pour le bon déroulement de leurs activités, ils devront toutefois progressivement trouver la meilleure manière d’agir collectivement pour pouvoir subsister. Cette phase de transition pourrait s’interpréter comme un second processus d’activation - ou désactivation suivant le cas – du SYAL : après que les différents groupes se sont constitués et ont développé une série d’activités économiques en valorisant les ressources locales, ils se trouvent maintenant face à un processus de consolidation et de regroupement. Suivant la ISDA 2010, Montpellier 28-30 Juin 2010 9 SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D., Brun V. réaction des membres du groupe, ceci pourra se traduire par une continuation et un renforcement des activités dans un objectif de consolidation, ou bien par une désintégration du groupe face au manque de soutien. Il faut toutefois souligner que la réussite d’un groupe aurait un fort impact positif sur ses membres étant données les conditions de pauvreté et de difficultés de l’environnement. CONCLUSION : ALLIER LA VIABILITE ECONOMIQUE A LA VIABILITE COLLECTIVE L’approche SYAL dans la mise en œuvre du projet “microentreprises” du PRODESIS a permis de poser un cadre conceptuel à l’accompagnement technique du développement de 16 projets d’AIR de la Selva Lacandona au Chiapas. A la différence de l’approche purement économique traditionnellement employée pour accompagner les AIR, le recours au concept de SYAL a permis de mobiliser des facteurs sociaux, historiques et environnementaux pour analyser les relacions intra et intergroupes. Ce projet, qui nécessiterait maintenant la mise en place d’un système d’évaluation et de suivi, a montré qu’il est tout à fait possible d’appuyer les dynamiques locales d’AIR situées dans des contextes difficiles, dans une perspective globale de lutte contre la pauvreté où l’objectif recherché n’est pas seulement une augmentation des revenus mais également la mise en œuvre de processus d’apprentissage et de formation, l’installation de services de base, la revalorisation du travail rural et la génération d’autoestime. Cependant, il existe encore beaucoup d’incertitudes concernant le devenir de ces groupes maintenant que la période financée du projet est terminée. Le futur des groupes dépendra en grande partie de la réaction de leurs membres : soutien mutuel et cohésion pour continuer les activités, ou bien désintégration face au manque d’engagements individuels et collectifs. Nous avons pu observer que si sur un plan théorique le futur d’un groupe dépend de la dynamique collective engagée par ses membres, dans la réalité, les cas étudiés ont montré que celui-ci dépend en grande partie des intérêts personnels des leaders et donc de la passivité des autres individus face aux initiatives de ces derniers. En effet, nous avons remarqué que dans le cas contraire, c’est à dire quand une majorité des membres du groupe montre de la méfiance à l’égard des individus les plus actifs et finit par les exclure, cela se traduit souvent par une démotivation générale et une perte de dynamisme collectif. Face à cette situation, il convient de s’interroger sur la réaction des individus qui se sont isolés des groupes pour pouvoir maintenir leur activité économique, laissant de côté un groupe qui n’avait pas de possibilité de se développer du fait de la passivité de ses membres ou de la prépondérance d’un leader dominant et égoïste. Ce thème mérite d’être approfondi par une étude ex-post des groupes d’AIR de la Selva Lacandona, de manière à analyser leur évolution après un certain temps de fonctionnement. Ce qu’il y a de certain est que la plupart des difficultés rencontrées sont liées à l’absence des conditions minimales requises pour la mise en œuvre d’un tel projet, s’agissant notamment de l’environnement institutionnel et de service ou de ce qu’il convient ici d’appeler les biens publics locaux. Sur ce sujet, les apports des travaux De Janvry et al. (2002) sont particulièrement éclairants et importants. Ainsi, dans la première étape de leur approche en trois phases de la réduction de la pauvreté, ils plaident pour un investissement conséquent dans les biens publics de base comme l’éducation, la santé, l’alimentation et les infrastructures. Il est regrettable que ces éléments n’aient pas été suffisamment pris en compte au moment du lancement du PRODESIS car cet environnement peu favorable explique a posteriori beaucoup des difficultés rencontrées par les AIR pour développer leurs activités. De plus, la présence de biens publics locaux est également nécessaire à l’amélioration des « capabilités » des acteurs, comme le souligne Amartya Sen (2000 ; 1999). Ce dernier point nous permet de faire deux réflexions finales: d’un côté, s’il est certain que les projets d’AIR peuvent aider les groupes de producteurs à sortir de la pauvreté dans la ISDA 2010, Montpellier un outil F D. Brun V. perspective d’une amélioration de leurs « capabilités », il apparaît d’un autre côté primordial de créer au préalable un environnement favorable à la création de petites entreprises rurales. Dans le cas des AIR de la Selva Lacandona, nous pouvons en effet conclure que les difficultés rencontrées par les groupes sont dues avant tout à un milieu extérieur défavorable ne présentant pas les conditions minimales requises au développement d’une activité entrepreneuriale. Toutefois, l’absence de biens publics locaux n’explique pas tout et nous avons également pu mettre en évidence des difficultés liées au fonctionnement interne des groupes: comportements de « passagers clandestins », situations renvoyant au problème du « chien du jardinier », méfiance, autoritarisme, passivité des membres et leadership inapproprié. Par ailleurs, le projet a permis de rendre compte des limites des différents indicateurs de pauvreté (IDH, indice de marginalisation sociale, etc.) qui ne reflètent pas les conditions réelles de pauvreté rurale telles que nous avons pu les observer dans les communautés et groupes de producteurs de la Selva Lacandona. Pour ne prendre qu’un exemple, ces divers indicateurs intègrent la présence ou non de biens publics dans leur calcul mais pas leur qualité ni leur facilité d’accès. Pour pouvoir développer des projets tels que celui que nous venons de présenter, il est nécessaire de disposer de plus d’informations sur les conditions réelles des groupes cibles pour pouvoir intervenir de manière efficace. Ces réflexions doivent ouvrir de nouvelles voies pour la recherche appliquée au développement. Au final, les résultats présentés dans cet article montrent que l’AIR a un avenir et peut servir de base au développement de territoires très pauvres et en conditions précaires. L’approche SYAL se montre également très pertinente pour analyser ces situations. Mais nous insistons ici sur le fait que ces projets doivent être intégrés à des programmes plus larges qui considèrent en premier lieu l’amélioration des biens publics locaux nécessaires au développement entrepreneurial, fût-il de taille réduite. BIBLIOGRAPHIE BOUCHER F., RIVEROS H., LAZOS, J., 2007. Rapport final PRODESIS. BOUCHER F., 2004. Enjeux et difficulté d’une stratégie collective d’activation des concentrations d’Agro-Industries Rurales, le cas des fromageries rurales de Cajamarca, Pérou, Thèse de doctorat, Université de Versailles Saint Quentin en Yvelines, novembre 2004, 436p. + annexes 250p. BOUCHER F., CARIMENTRAND A., REQUIER-DESJARDINS D., 2003. « Agro-industrie rurale et lutte contre la pauvreté : les Systèmes Agroalimentaires Localisés contribuent-ils au renforcement des « capabilités »? », in Elevage et pauvreté, CIRAD-EMVT, Montpellier. CORREA GÓMEZ C.A., BOUCHER F., REQUIER-DESJARDINS D., 2006. ¿Cómo activar los sistemas agroalimentarios localizados en América Latina? Un análisis comparativo, Agroalimentaria, n°22, Enero-Junio 2006, pp. 17-27. DE JANVRY A., ARAUJO C., SADOULET E. 2002. El desarrollo rural con una visión territorial, Universidad de California en Berkeley, 12p., http://www.amer.unam.mx/docs/Janvry.pdf MUCHNICK J., SAUTIER D., 1998. Systèmes agro-alimentaires localisés et construction de territoires. Proposition d’action thématique programmée, CIRAD, Paris, France, 46p. OLSON M., 1992. La lógica de la Acción Colectiva. Bienes Públicos y la Teoría de Grupos. Limusa, Grupo Noriega Editores, México, 199p. REQUIER-DESJARDINS D., 2007. « L’évolution du débat sur les SYAL : le regard d’un économiste », communication présentée lors du XLIIIè colloque de l’Association de Science Régionale de Langue Française, Les dynamiques territoriales : débats et enjeux entre les différentes approches disciplinaires, Grenoble-Chambéry, 11-13 juillet 2007. REQUIER-DESJARDINS D., BOUCHER F., CERDAN C., 2003. Globalization, competitive advantages and the evolution of production systems: rural food processing and localized ISDA 2010, Montpellier 28-30 Juin 2010 11 SYAL : un nouvel outil pour le développement de territoires marginaux. Boucher F., Requier-Desjardins D., Brun V. agri-food systems in Latin-American countries, Entrepreneurship and regional development review, London, UK. SCHMITZ, H., 1997. “Collective efficiency and increasing returns”, IDS Working Paper N° 50, UK, 28p. SEN A., 2000. Repenser l’inégalité, Editions du Seuil, Paris, France, 281p. SEN A., 1999. Development as freedom, Oxford Press University. SEN A., 1992. Inequality reexamined, Russell Sage Foundation, Harvard University Press, Cambridge, Massachusetts, USA. TORRE A., 2000. Economie de la proximité et activités agricoles et agroalimentaires. Eléments d’un programme de recherche, Revue d’Economie Régionale et Urbaine, n° 3, pp. 407-426. ISDA 2010, Montpellier 28-30 Juin 2010 12.
24,439
ee2cd0f6c41207ef553d992fed2de842_13
French-Science-Pile
Open Science
Various open science
2,012
Pratiques textuelles. Catherine Détrie, Michel Masson et Bertrand Verine. Praxiling-Presses de l'Université Paul Valéry-Montpellier 3, pp.322, 1998, Le fil du discours. &#x27E8;hal-00669109&#x27E9;
None
French
Spoken
7,880
13,377
Ben Jelloun a écrit pays pauvres alors qu’il aurait certainement mis des guillemets à pays sous-développés (praxème d’autant plus signifiant par son absence que l’on trouve, sans guillemets, pays développés) : dis-moi ce que tu évites... Le lecteur peut être conduit, d’autre part, à ne pas endosser (inscription en même) certains syntagmes, qu’il rejettera en autre, dégageant du même coup l’identité du scripteur. A titre d’exemple, dans la phrase : – Les pays développés s’acheminent vers une guérilla contre ceux qu’ils appellent des « envahisseurs » ou des « occupants » (l. 15) le lecteur du Monde pourra percevoir le terme de guerilla comme une hyperbole ; il pourra voir dans le SN les pays développés une synecdoque du tout pour la partie, fautrice d’amalgame. Il y verra la main de qui, à partir de son appartenance identitaire, durcit le trait... La réduction progressive du champ – la réflexion entamée sur le siècle s’achève sur l’appel à une manifestation à Paris, – comme la spécification actantielle – Europe > France > peuple de France > forces de progrès – inscrivent le texte dans sa particularité : celle d’une situation de communication dans un journal français parisien, et catégorisent son scripteur. Enfin et surtout, au-delà de ces contraintes scripturales et textuelles, il arrive que les identités du scripteur trouent – retour du refoulé? – sa parole. Ainsi en va-t-il peut-être de la marocanité, dans la mention de la déclaration de l’Union du Maghreb arabe (l. 47-50) : le lecteur du Le texte journalistique et son écriture 289 Monde – ethnocentrisme aidant – connaît les faits européens que le scripteur cite auparavant, il ignore tout de celui-ci qui se trouve placé sur le même plan que ceux-là, voire auquel est accordé plus d’importance du fait de sa place conclusive. Plus certainement, on repèrera l’appartenance ethnique et religieuse du scripteur spécialement en deux lieux du dernier paragraphe, comme si d’avoir été longuement tue augmentait la force de sa pression. Nous avons réservé l’analyse de la dernière occurrence d’extraction : – Lorsque les tombes juives ont été profanées à Carpentras, M. François Mitterrand avait marqué son indignation (...). Aujourd’hui, c’est le présent et l’avenir de la démocratie et de la liberté qui sont insultés (...) (l. 81-84) Fournissons-la. A partir de la relation sémantique des verbes profaner/insulter, le scripteur, thématisant insulter, extrait pour le rhématiser le SN : « le présent et l’avenir de la démocratie et de la liberté ». Ce SN est opposé implicitement au SN de la phrase précédente : « les tombes juives », sur la base des programmes de sens de mémoire, de passé, qu’il produit. Soit donc une opposition qui se structure en : P1 P2 [le passé (tombes juives)] + être profané c’est le présent et l’avenir + être insulté On peut entendre que l’opposition entre les deux rhèmes, ainsi présupposée : « Aujourd’hui [ce n’est pas le passé], c’est le présent et l’avenir... » n’est pas argumentative mais purement rhétorique. A savoir que le rhème (présupposé) négatif (« ce n’est pas le passé ») n’est pas rejeté polémiquement mais fournit une simple transition. Il nous semble cependant qu’il y a plus. Rappelons que, selon notre analyse, le SN « le présent et l’avenir (...) de la liberté » vient en substitution de les immigrés (supra 3.2.). L’extraction, en opposant implicitement tombes juives et [immigrés (arabes?)], ne revient-elle pas à actualiser très latéralement l’argument que tiennent les Arabes à propos des différences de comportement des gouvernements occidentaux à l’égard d’Israël et des pays arabes : argument du « deux poids deux mesures »? F. Mitterrand est descendu dans la rue pour défendre la mémoire juive... il n’a pas fait pareil geste pour les immigrés et le scripteur l’invite à mani- tiques textuelles fester pour répondre aux insultes racistes. Notre analyse pourra paraître spécieuse : elle rend compte de l’extraction en la rapportant à l’arabité du scripteur. Le second lieu, qui donne la parole au sujet musulman, est bien moins sujet à caution. Il s’agit de la coda textuelle : « dire un non magistral aux théories » de « l’intégrisme raciste » (l. 87). Le SN intégrisme raciste apparaît comme un détournement du discours dominant qui flanque volontiers le nom intégrisme de l’adjectif musulman (ou islamique, islamiste) ; qui les associe en un syntagme figé, inanalysable, semblant aller de soi ; qui les assimile au point de construire textuellement en synonymie intégriste et islamiste. « Intégrisme raciste » convoque donc dialogiquement intégrisme musulman qu’il retourne en renvoyant l’offense à l’offenseur. Or l’isotopie* religieuse a été absente du programme (explicite) de « immigrés » ; elle n’est apparue, latéralement, que dans « tombes juives ». Qui la convoque ici sinon le sujet musulman, qui, en clôture de son texte, jette son masque d’objectivité? In cauda veritas... Nous mettrons en relation, pour conclure, les dimensions dialogique et énonciative. Le scripteur oppose aux discours ambiants sur l’immigration un contrediscours : ce faisant il rencontre intertextuellement d’autres voix. Cette hétérogénéité, il la montre, joue avec, voire l’exhibe alors qu’il dégage moins clairement la voix du lecteur, et surtout tend à effacer les marques de sa propre voix. Peine perdue : chassée par la porte, la subjectivité fait retour par la fenêtre. Toutes les ruses du scripteur n’y sont pour rien : pas plus qu’on ne parle sans interdiscours et sans énonciataire, on ne saurait parler d’un point de vue non embrayé personnellement, idéologiquement, identitairement. Je, tu, il/elle et leurs discours sont toujours-déjà là : ce sont eux qui constituent le sujet comme parlant. T. Bouguerra, J. Bres. isme DIALOGISME Le concept de dialogisme – et plus encore celui de polyphonie – sont aujourd’hui fort à la mode. A leur origine : les écrits du cercle de Bakhtine qui, dès les années 1928-1930, posent que la réalité des pratiques langagières c’est l’interaction verbale, sa forme prototypique le dialogue. 1. Dialogal / dialogique Il convient d’opérer une première distinction entre dialogal et dialogique. Un texte est dialogal lorsqu’il prend la forme du dialogue, c’est-à-dire lorsqu’il se développe comme enchaînement de tours de parole* référés à des énonciateurs-locuteurs différents : par exemple le texte théâtral. En revanche, le plus souvent, l’article de journal, ou le récit sont des textes monologaux. Le dialogisme est la capacité de l’énoncé à faire entendre plusieurs voix. En ce sens, tout texte – monologal comme dialogal – est dialogique. On distinguera : – le dialogisme interdiscursif : la voix de l’énonciateur, dans sa saisie d’un objet, rencontre les discours antérieurs tenus par d’autres locuteurs, – d’autres voix – sur ce même objet, discours avec lesquels elle entre en interaction. En ce sens, le dialogisme est synonyme de la notion d’intertextualité appliquée à toutes les pratiques langagières, notamment orales. – le dialogisme interpersonnel : la voix de l’énonciateur s’adresse à celle d’un énonciataire : « tout discours est dirigé sur une réponse, et ne peut échapper à l’influence du discours-réplique prévu (...). Se constituant dans l’atmosphère du déjà dit (= dialogisme intertextuel), le discours est déterminé en même temps par la réplique non encore dite, mais sollicitée et déjà prévue » (= dialogisme interpersonnel) (Bakhtine 1934/1978 : 103). Pour prendre un exemple scolaire, l’exercice de la dissertation est doublement dialogique : il consiste, pour l’énonciateur, à citer d’autres textes, à se positionner par rapport à eux mais aussi à faire siens – où textuelles commence le plagiat? – nombre d’entre eux ; il est façonné par les attentes supposées du correcteur-énonciataire. 2. Dialogisme / polyphonie Seconde distinction : dialogisme / polyphonie. Pour Bakhtine, la polyphonie est un concept littéraire. Il s’agit de l’utilisation du dialogisme de l’énoncé quotidien, utilisation dans laquelle la voix du héros « résonne aux côtés de la parole de l’auteur et se combine d’une façon particulière avec elle ainsi qu’avec les voix moins qualifiées des autres héros » (1961 : 11). Ces voix sont posées à égalité. Ce qui n’est pas le cas dans l’énoncé quotidien qui, bien que feuilleté, présente les différentes voix en décalage, en hiérarchie. Ducrot (1984) et ses épigones, procédant à des extensions libres, parlent de polyphonie là où Bakhtine parle de dialogisme. De nombreux lieux de la linguistique intra-phrastique et interphrastique sont revisités par la problématique dialogique. Liste non close (Bres 1998) : discours rapporté, ironie, négation, interrogation, concession, conditionnel, réglage du sens... La production de sens telle que la conçoit la praxématique est éminemment dialogique : l’énonciateur trouve les mots toujours-déjà habités de sens. Dans l’actualisation se produit une interaction forte entre ces sens déjà produits et ce que l’énonciateur a à dire. Soit cette interaction est versée en inconscience : le sujet trouve les mots, ses mots. De l’autre, il fait du même. Soit cette interaction tend à se verser en conscience sous la forme de difficultés à dire : je résiste à la langue, la langue me résiste, elle me paraît inadéquate, voire elle me fait défaut. La praxématique décrit la production de sens comme conflictuelle : cette conflictualité est à articuler avec ce dialogisme fondamental de la production de sens. 3. Hétérogénéité constitutive / hétérogénéité montrée Le dialogisme est à référer non seulement au fait que l’interaction verbale est la réalité des pratiques langagières mais également au fait que la langue c’est d’abord de l’autre. Cette hétérogénéité constitutive Le texte journalistique et son écriture 293 est inconsciente : au principe de la langue, il y a l’autre qui construit le sujet en radicale extériorité par rapport à lui-même. Les formes de l’hétérogénéité montrée – discours rapporté, guillemets, italiques, modalisation autonymique (Le rôle du gueuloir – pour parler comme Flaubert) – servent à désigner des lieux circonscrits de non–coïncidence de la parole du sujet à elle-même en dénégation de la non-coïncidence constitutive et construction différentielle d’un soi-même. En mettant des guillemets à certains fragments de sa parole, l’énonciateur les désigne explicitement comme non-siens. De ce même geste de délimitation d’un autre, il recouvre l’altérité fondamentale et irréductible de la langue à lui-même (Authier-Revuz, 1984). BIBLIOGRAPHIE Authier-Revuz J. 1984, « Hétérogénéités énonciatives », Langages 73, Paris : Larousse, 98-111. Bakhtine M. 1928/1977, Le Marxisme et la philosophie du langage, Paris : Minuit, 120-141. 1934/1978, « Du discours romanesque », in Esthétique et théorie du roman, Paris : Tel-Gallimard, 83-233. 1961/1970, Problèmes de la poétique de Dostoïevski, Lausanne : L’âge d’homme. Bres J. 1998a, « Entendre des voix : de quelques marqueurs dialogiques en français », in J. Bres, R. Delamotte, F. Madray, P. Siblot, L’ en discours, Montpellier : Praxiling (à paraître). 1998b, « Vous les entendez? », in D. O’Kelly, Les fondements théoriques de l’analyse du discours (à paraître). Ducrot O. 1984, « Esquisse d’une théorie polyphonique de l’énonciation », in Le Dire et le dit, Paris : Minuit, 171-233. Kerbrat-Orecchioni C. 1990, Les Interactions verbales, tome 1, Paris : A. Colin, 9-54. Kristeva J. Pratiques textuelles Repères théoriques négation NEGATION, EXTRACTION Nous choisissons de présenter, dans l’ensemble nombreux des marqueurs de dialogisme, la négation et l’extraction. 1. La négation Les linguistes se passionnent, depuis une dizaine d’années, pour cet outil extraordinairement complexe. On peut retenir l’analyse de Ducrot (1984:217-218) qui distingue trois types de négation : (1) métalinguistique, (2) polémique, (3) descriptive. 1.1. Soit le dialogue reconstruit suivant : A – Pierre est veuf B – Pierre n’est pas veuf, pour la simple et bonne raison qu’il a toujours été célibataire. Dans ce cas, l’énoncé de B reprend, en négation, l’énoncé de A. Il met en scène deux voix : celle de A affirmant (que Pierre est veuf) ; celle de B, niant cette affirmation. La négation métalinguistique se réalise dans une structure dialogale (présence effective de la parole de A) ; elle vise à nier les présupposés de l’énoncé de A (posé : veuf ; présupposé : marié) ; elle se poursuit par l’explicitation de la négation du présupposé (ici la seconde proposition où célibataire vient rendre compte du rejet de veuf). 1.2. Soit l’énoncé suivant extrait d’une intervention télévisée de F. Bayrou, alors (1992) secrétaire de l’UDF : il n’y a aucune ombre entre l’UDF et le RPR, contrairement à ce que certains auraient souhaité. Le texte journalistique et son écriture 295 La négation polémique, comme la négation métalinguistique, laisse entendre, en plus de la voix de l’énonciateur, une autre voix à qui est attribué l’énoncé positif. Mais à la ce de celle-ci : (a) elle n’a pas besoin d’une structure dialogale pour se réaliser. N’est donc pas obligatoirement précisée l’identité de la voix responsable dudit énoncé : ce peut être la voix du on de la sagesse populaire ; et/ou celle de tel ou tel discours cité dans le co-texte antérieur ; et/ou celle que l’énonciateur impute – abusivement ou non – à son énonciataire réel ou potentiel (le lecteur par exemple dans un article de presse). Dans l’exemple cité, la négation polémique se poursuit de l’explicitation de la source : certains. Cet énoncé met donc en scène la voix (dans un acte de souhait) de certains dont le discours est nié par la voix de F. Bayrou. (b) La négation polémique conserve les présupposés (ici, par exemple, que l’UDF et le RPR sont deux formations politiques ; qu’elles ont des relations habituellement positives). 1.3. Soit l’exemple suivant. Un petit garçon, en voiture avec son père, lui dit : papa, tu m’as pas attaché. Il s’agit d’une négation descriptive, servant à décrire une réalité (le fait que l’enfant n’est pas attaché sur le siège-auto par une ceinture) et ne s’opposant pas à une voix – ici par exemple celle du père – à qui serait imputée l’affirmation : [je t’ai attaché]. Les deux premiers types de négation – métalinguistique, polémique – sont dialogiques mais pas le troisième. Cette distinction, aussitôt posée, doit être relativisée : dans l’exemple de négation descriptive proposé, on peut entendre le discours du père : [attache-toi, il faut que je t’attache] etc... De sorte que la négation descriptive apparaît comme une négation polémique dont la dimension dialogique est atténuée, voire annulée (Nolke 1993 mais peut être réactivée. En analysant la négation comme marqueur dialogique, la linguistique contemporaine retrouve – sans le savoir? sans le dire? – les posi- 296 Pratiques textuelles tions développées en 1907 par Bergson : « Si je dis : « cette table n’est pas blanche » (...) ce n’est pas sur la table elle-même que je porte ce jugement, mais plutôt sur le jugement qui la déclarerait blanche » (L’évolution créatrice, cité par Grévisse, Le bon usage, p. 127). 2. L’extraction Cette opération consiste à extraire, c’est-à-dire à déplacer en tête de phrase, un groupe en l’encadrant de la particule c’est... que : il faut s’attaquer à la misère  c’est à la misère qu’il faut s’attaquer L’extraction place le groupe extrait en position de rhème focalisé. En quoi l’extraction peut-elle être un marqueur de dialogisme? Réponse : de ce qu’elle inclut – explicitement ou implicitement – une négation. Soit l’énoncé suivant, relevé sur une affiche murale à Montpellier (6.2.93) : c’est pas aux immigrés qu’il faut s’attaquer, c’est à la misère. La phrase a pour thème : [il faut s’attaquer à] et pour rhèmes : [les immigrés] et [la misère], tous deux soumis à extraction. L’un des deux rhèmes – le plus souvent le premier comme ici, mais ceci n’est pas obligatoire – est nié. Analyse dialogique : sur un thème emprunté à une voix autre (« il faut s’attaquer à »), l’énonciateur attribue à cette autre voix un rhème (« les immigrés ») qu’il refuse et auquel il substitue un rhème qu’ il défend (« la misère »). Il arrive que l’extraction du/des rhème(s) soit combinée avec son/leur détachement en fin de phrase, ce qui permet de retrouver l’ordre préférentiel du français : thème/rhème : ce à quoi il faut s’attaquer (thème), c’est pas aux immigrés (rhème 1), c’est à la misère (rhème 2). (le démonstratif ce est le pronom cataphorique des deux rhèmes détachés en fin de phrase). Nous ajouterons – hypothèse de travail – que lorsque le tour extractif ne présente que la proposition positive ([c’est à la misère qu’il faut Le texte journalistique et son écriture 297 s’attaquer]), la proposition négative – réfutation de la voix de l’autre : [c’est aux immigrés qu’il faut s’attaquer] – peut être le plus souvent sous-entendue ; plus même : que c’est elle qui rend compte de l’extraction du rhème en tant qu’opposition à un autre rhème sous-entendu. BIBLIOGRAPHIE Ducrot O. 1984, Le Dire et le dit, Paris : Minuit, 217-219. Langue française, 94 1992, « Les négations », Paris : Larousse. Nolke H. 1993, « Ne... pas : négation descriptive ou polémique », in Le Regard du locuteur, Paris : Kimé, 233-258. Muller C. 1991, La Négation en français, Genève : Droz, 15-50. J. Bres. Repères théoriques énon-ciateur-énonciataire L’ENONCIATION 1. Énonciation et énoncé L’énonciation est l’acte de production d’un message, oral ou écrit. L’énoncé est le produit qui résulte de cet acte de production. Emile Benveniste (1974) définit l’énonciation comme la « mise en fonctionnement de la langue par un acte individuel d’utilisation », « conversion individuelle de langue en discours », et « procès d’appropriation ». Ce faisant, il souligne l’aspect processuel de l’énonciation, qui, à ce point de vue, peut être rapprochée de la notion d’actualisation*. La production d’un message met en jeu plusieurs rôles énonciatifs, qui peuvent être soit cumulés par une seule et même personne, soit dissociés. On en distinguera essentiellement trois : 1. La prise en charge du message par un responsable. Ce rôle est particulièrement saillant dans le serment : « je jure que... », l’assertion solennelle: « j’affirme, je déclare que... ». 2. L’élaboration du message par un auteur, qui en choisit les termes et lui donne forme linguistique. 3. L’extériorisation du message, par des voies plus ou moins directes. Pour l’écrit imprimé et édité, on peut distinguer plusieurs stades d’extériorisation : réalisation graphique, composition, tirage, diffusion... Le recours aux savoirs professionnels dans les différentes branches de production de l’écrit devient très vite nécessaire si on veut sortir des généralités. Le concept d’énonciation, appliqué au texte, ouvre sur des problématiques nombreuses. Cependant, la plupart du temps, la préoccupation centrale des analystes est de répondre à la question suivante : par quels procédés linguistiques un auteur inscrit-il des traces explicites de son énonciation dans son énoncé? Ou, à l’inverse, comment peut-il se masquer, se faire oublier, de manière à ce que son message semble parler de lui-même? S’interroger sur l’énonciation d’un texte, ce sera, dans cette perspective, y relever des marques de subjectivité – ou constater leur effacement, plus ou moins achevé. Entendue ainsi, la linguistique de l’énonciation est une linguistique des traces. C’est à cette orientation, déjà très vaste, que nous nous limiterons ici. 2. L’appareil formel de l’énonciation Benveniste (1974) appelle ainsi l’ensemble des formes grammaticales indiquant la présence d’un énonciateur dans son énoncé. Au centre de ce dispositif, il faut placer la marque de celui qui parle : je, et son partenaire dans la co-énonciation : tu1. Les coordonnées spatiotemporelles de l’énonciation sont centrées sur l’ici et le maintenant de la parole, et se définissent en référence au moment et au lieu où l’é1 Du moins je et tu désignant l’énonciateur et l’énonciataire, sujets d’énonciation. Lorsque les marques je et tu désignent non plus des sujets d’énonciation, mais des sujets d’énoncé, il s’agira d’une simple mimesis d’énonciation, d’une énonciation représentée, comme on en trouve dans les dialogues de roman où s’expriment des locuteurs fictifs. Représentation de la parole à distinguer évidemment de l’énonciation effective du message romanesque, où l’auteur peut, s’il le désire, apostropher le lecteur en tu : Hypocrite lecteur, mon semblable, mon frère. A propos de ces notions cf. 3. Le texte journalistique et son écriture 299 change se déroule. Les principales marques linguistiques signalant l’inscription du sujet dans sa parole sont : – les pronoms exprimant la personne au sens de Benveniste (cf. Pronoms personnels) : je, tu, nous, vous ; renvoyant à l’individu prononçant le message, et à son partenaire ; – les déictiques* (termes qui servent à montrer un élément du réel) : démonstratifs (ce, cet, celui-ci...), adverbes ou compléments de temps et de lieu qui s’explicitent par la situation d énonciation : ici, là, maintenant, aujourd’hui, demain, ce soir, I’année dernière... – le présent, moment où je parle. A propos de ces formes, Jakobson avait parlé d’embrayeurs (shifters). Il s’agit en effet de formes-pivots entre le langage et le réel, ayant à chaque fois une référence spécifique, qui ne peut s’expliciter que par la situation d’énonciation. Mais, on le voit, ce dispositif ne se comprend qu’en référence à la situation de l’oral, où les partenaires sont en présence l’un de l’autre, et partagent les mêmes références temporelles et spatiales. Que devient cet appareil formel, dans la situation d’énonciation du texte écrit? La communication écrite implique un décalage temporel et spatial entre la production et la réception du texte, une disjonction entre l’ici et le maintenant de l’auteur et celui du lecteur. Le je de l’auteur n’est plus une présence visible devant son destinataire. Il n’est que la trace de celui qui rédigea – il y a peut-être bien longtemps – cet écrit que le lecteur a sous les yeux. Ce je d’auteur n’a de référence qu’à travers le patronyme qui accompagne le titre de l’ouvrage. Si le lecteur trouve un adverbe comme aujourd’hui ou ici dans le journal de Gide, ce n’est pas à sa propre situation spatiale et temporelle qu’il a recours pour trouver la référence de ces déictiques : il cherche dans le co-texte la date qui va lui permettre de savoir quel est pour Gide cet aujourd’hui, et les descriptions spatiales qui vont lui faire savoir quel est le lieu de l’énonciation. Ces formes sont bien des marques d’énonciation du point de vue de l’auteur, mais elles perdent leur référence situationnelle, au profit d’une référence textuelle (tirée du co-texte), pour le lecteur. Il reste cependant que le je d’auteur ne se confond pas, aux yeux du lecteur, avec le je que le romancier, par exemple, place à l’intérieur de ses dialogues dans la bouche de ses personnages. Le récepteur sait en effet que le je de l’auteur garde un lien authentique , même en décalage temporel, avec celui qui s’y est inscrit, comme sujet d’énonciation (cf. ci-dessous). Outre les formes grammaticales dont les principales viennent d’être signalées, on pourra considérer comme marques de la présence de l’énonciateur dans son texte : – Les modalités de phrase interrogative et impérative. – Les formules méta-énonciatives, par lequelles le sujet du discours commente ses dires, soit pour en évaluer le degré de véracité (à coup sûr, évidemment, paraît-il, peut-être), soit pour indiquer la validité des termes qu’il emploie, ou la source d’où il les tire (pour ainsi dire, passez-moi l’expression, sic, comme on disait à l’époque). On placera sous une rubrique proche les adverbes de phrase qui indiquent le sentiment qu’éprouve l’énonciateur à propos de l’énoncé qu’il produit : Heureusement (malheureusement, hélas). On arrêtera là cette liste, sans doute avec un certain arbitraire. Nous nous en tiendrons, en tout cas, aux unités grammaticales, dont la fonction fondamentale est de gérer le lien entre le langage et le réel. 3. Sujet d’énonciation vs sujet d’énoncé, énonciateur vs locuteur Le sujet d’énonciation est l’être engagé dans la communication effective du message linguistique : il assume sa production (on le nommera alors énonciateur) ou sa réception (énonciataire). Le sujet d’énoncé est l’individu auquel le texte attribue un rôle communicatif, par l’une des marques linguistiques de l’allocution/interlocution : je-tunous-vous. On parlera dans ce cas de locuteur (pôle de la production) et d’interlocuteur) ou d’allocutaire (pôle de la réception), selon les cas (cf. 4.). Un exemple permettra de clarifier la distinction entre énonciateur et locuteur : celui du discours rapporté. Voici l’extrait d’un poème de Verlaine, Birds in the night, poème grinçant qui vise son épouse Mathilde Mauté : Et vous voyez bien que j’avais raison Quand je vous disais, dans mes moments noirs, Le texte journalistique et son écriture 301 Que vos yeux, foyers de mes vieux espoirs, Ne couvaient plus rien que la trahison. Vous juriez alors que c’était mensonge Et votre regard qui mentait lui-même Flambait comme un feu mourant qu’on prolonge, Et de votre voix vous disiez : « Je t’aime! » Le poète, énonciateur du texte, est également locuteur, lorsqu’il s’y inscrit par la marque de première personne (j’avais raison etc...). Dans le discours direct « Je t’aime! », la locutrice je est la jeune femme – par ailleurs énonciataire et allocutaire du poème, à travers la forme vous. Cette position en première personne assigne à Mathilde le rôle d’auteur des paroles autrefois prononcées.Mais dans ce passage en discours rapporté l’énonciateur est toujours Paul Verlaine : c’est lui qui « fait parler » Mathilde, plaçant la citation de ses paroles dans un contexte dévalorisant. Les deux rôles : énonciateur et locuteur, peuvent donc soit être dissociés(c’est le cas dans je t’aime), soit être cumulés (autres emplois de la première personne dans le texte). Il est fréquent d’autre part qu’un énonciateur ne s’inscrive pas dans son écrit : l’absence de marque énonciative est tout aussi porteuse de significations, et digne d’être signalée, qu’une profusion de marques. 4. Le pôle destinataire : énonciataire, interlocuteur, allocutaire L’énonciataire (destinataire de l’énonciateur) joue un rôle important dans la construction du texte. Toute énonciation est en effet co-énonciation*. Il convient de souligner la pertinence d’une approche qui prend en compte le lien entre l’auteur et son lecteur – lecteur matériellement absent, mais ô combien présent dans l’esprit du sujet écrivant, qui énonce son texte pour son partenaire lointain, et en fonction de lui.(cf. Compétence de lecture et Dialogisme). Si le partenaire de l’énonciateur est l’énonciataire, le locuteur, figure de l’énoncé, s’adresse à un récepteur (tu, vous) qui est soit son interlocuteur (cas de l’interlocution), soit son allocutaire (cas de l’allocution). L’interlocution se caractérise par la mobilité des rôles : chacun des partenaires de l’échange devient alternativement je et tu. Ce fonctionnement est illustré par la conversation à l’oral, et, à l’écrit, par les dialogues. L’allocution correspond au contraire aux cas où chacun des protagonistes reste bloqué sur un rôle : le je et le tu gardent alors une référence constante. Il faut d’autre part rappeler qu’un je peut fonctionner dans un texte de manière isolée, hors d’un rapport explicite avec un quelconque interlocuteur ou allocutaire. Son destinataire peut par exemple être exprimé en non-personne : cas classique de l’auteur qui se désigne en je mais nomme ses énonciataires les lecteurs, le lecteur, sans user du vous ou du tu. La figure du destinataire peut tout simplement être absente du texte, c’est-à-dire non formulée, sous quelque forme que ce soit. Chacun de ces permet une exploitation différente, dans la perspective de l’analyse textuelle. D’autre part, la confrontation entre système d’énonciation effectif (relation énonciateur-énonciataire) et relation(s) allocutive(s)/interlocutive(s) représentée(s) dans le texte peut mener à des réflexions fécondes. Un repère théorique est consacré aux plans d’énonciation, dont la problématique est en relation directe avec celle qui vient d’être traitée ici . BIBLIOGRAPHIE Benveniste E. 1966, Problèmes de linguistique générale, Ve Partie (« L’Homme dans la langue »), Paris : Gallimard, 225-287. 1974, Problèmes de linguistique générale, vol. 2, chap. IV (« Le langage et l’expérience humaine ») et chap. V (« L’appareil formel de l’énonciation »), Paris : Gallimard, 67-88. Kerbrat-Orecchioni C. 1980, L’Énonciation. De la subjectivité dans le langage, Paris : A. Colin. Lafont R. 1978, Le Travail et la langue, chap. IV (« Le sujet et la représentation de l’espace ») et chap. V (« L’agir, l’être et le temps »), Paris : Flammarion, 177-288. J.-M. Barbéris, T. Bouguerra. Le texte journalistique et son écriture 303 Enonciation LES PLANS D’ÉNONCIATION Le fonctionnement énonciatif des textes joue sur les modulations de la subjectivité qui s’y trouve disséminée. Tout texte, à ce point de vue, doit prendre position par rapport à deux pôles opposés : inscription maximale de la subjectivité, grâce à l’emploi de l’« appareil formel de l’énonciation », des embrayeurs (je-tu-ici-maintenant), ou effacement maximal de la subjectivité, par l’évitement systématique de l’emploi des marques d’énonciation (cf. Énonciation). 1. Plan d’énonciation du discours vs plan d’énonciation historique Il est donc possible de tenter une classification des textes en fonction de leur positionnement énonciatif : textes chargés de marques d’énonciation vs textes faiblement repérés par rapport à la source énonciative – voire textes effaçant toute référence à leur source énonciative. Benveniste (1966) s’y est essayé, en dégageant deux modes d’énonciation opposés : l’énonciation de discours, et l’énonciation historique2. 1. Enonciation historique. Dans le texte de l’historien, caractérisé par l’emploi exclusif de la non-personne, et du passé simple associé à l’imparfait, les événements « semblent se raconter eux-mêmes » (p. 239). Apparemment, « personne ne parle ici ». Les marques du sujet d’énonciation sont en effet éliminées du style traditionnel de l’historien : ni je, ni tu, ni référence à l’époque présente (ce qui exclut l’em- 2 Il convient de s’en tenir à la formulation de Benveniste, énonciation historique, et d’éviter la dénomination de récit, dont la polysémie ouvre à de dangereux contresens. L’énonciation historique ne désigne qu’une forme particulière de récit, dont le prototype est le récit de l’historien. Le plan d’énonciation du discours permet lui aussi de construire des récits : narrations de style autobiographique, utilisant le système des personnes, et prenant pour base le passé composé (ou le présent de narration) associé à l’imparfait. 304 Pratiques textuelles ploi de présents à valeur actuelle, et favorise l’emploi du passé simple, temps caractéristique de l’Histoire3, ni déictiques. 2 Énonciation de discours. Ces embrayeurs, exclus du texte de l’Histoire, sont en revanche caractéristiques de l’énonciation de discours, énonciation impliquant la mise en rapport d’un énonciateur avec un énonciataire au moyen des marques de l’interlocution ou de l’allocution. Si l’historien s’efface en tant que sujet producteur, pour donner à son texte le ton lisse de l’objectivité, le plan du discours comprend en revanche « toute énonciation supposant un locuteur et un auditeur, et chez le premier l’intention ’influencer l’autre de quelque manière, tous les genres où quelqu’un s’adresse à quelqu’un, s’énonce comme locuteur et organise ce qu’il dit dans la catégorie de la personne » (p. 242). Ces deux modes d’énonciation sont également appelés fréquemment plans d’énonciation. 2. Modulations de la subjectivité dans le texte et plans d’énonciation Cependant, l’objectif de Benveniste, lorsqu’il oppose plan d’énonciation du discours et plan d’énonciation de l’histoire, n’est pas de formuler une théorie nouvelle à destination de la linguistique textuelle, mais de proposer une explication du statut respectif du passé simple et du passé composé en français contemporain, dans le cadre d’un assez court article (et non dans un ouvrage développé). C’est donc de manière un peu marginale qu’il introduit ces notions. Il n’y est pas revenu par la suite. On aurait tort de demander à cette opposition plus qu’elle ne peut donner : une idée originale, à développer et à compléter. En effet, il est impossible de rendre compte de la variété du fonctionnement énonciatif des textes, en essayant à toute force de les faire entrer tous dans l’une ou l’autre des catégories définies par Benveniste. Celles-ci sont opérantes, à condition qu’on ne les applique qu’aux données textuelles qu’elles sont susceptibles de définir. 3 Le passé simple est un temps qui se caractérise par sa coupure de l’époque présente. Si le présent est un embrayeur temporel, au sens de Jakobson (cf. Enonciation), le passé simple – osons ce néologisme terminologique – est un débrayeur de la situation d’énonciation. Le texte journalistique et son écriture 305 Nous conserverons de sa proposition deux idées : 1. Les textes méritent d’être classés en fonction de la position qu’ils adoptent par rapport à la subjectivité et aux marques énonciatives qui permettent de l’exprimer. 2. Les marques sur lesquelles doit porter l’observation sont de deux ordres essentiellement : le système des personnes (cf. la définition de la notion de personne et non-personne dans Repères théoriques : pronoms personnels) et le système des temps. Benveniste avance l’idée qu’il ne faut pas travailler sur ces deux ordres de phénomènes de manière séparée, mais en tenant compte d’une constante corrélation personnestemps. Les plans d’énonciation se définiront donc selon cette corrélation. Nous proposerons de concevoir la modulation de la subjectivité dans les textes comme un continuum, allant du marquage maximal de l’énonciation, caractérisé par le plan d’énonciation du discours, tel que le définit déjà Benveniste, à un effacement maximal, où l’on trouvera l’énonciation historique, mais également l’énonciation scientifique, caractérisée par l’emploi exclusif de la non-personne, cette fois en corrélation avec le présent de vérité générale. Entre ces pôles extrêmes : inscription maximale / effacement maximal des marques d’énonciation, peuvent se placer des plans d’énonciation intermédiaires, présentant à la fois des marques subjectives, mais aussi des phénomènes d’objectivation du discours : autobiographie utilisant la première personne (forme de discours) mais également le passé simple (propre au plan de l’histoire) ; emploi exclusif de la non-personne mais en association avec des temps du discours : présent, passé composé, comme on en trouve souvent dans les narrations journalistiques. Signalons pour finir que les plans d’énonciation alternent et varient assez souvent dans les textes. Il est bien connu que le roman traditionnel présente une alternance entre narrration au passé simple + non-personne (plan de l’énonciation historique) et dialogues basés sur l’utilisation des personnes je-tu-nous-vous et du présent actuel (énonciation de discours représentée à travers les paroles de personnages de fiction). La narration journalistique use volontiers d’ouvertures et de clôtures au présent ou au passé composé, mais construit fréquemment le centre de son développement narratif sur le passé simple. Les plans d’énoncia textuelles tion, par leur variation, permettent de découper des plages à l’intérieur du texte, et participent ainsi à sa structuration. Bien entendu, chaque fois qu’apparaissent dans un texte les marques formelles du plan d’énonciation du discours, il conviendra de bien distinguer le cas où c’est un énonciateur-locuteur qui parle, avec son je d’auteur, et le cas où il s’agit d’un simple locuteur. Dans le second cas, on reconnaîtra non pas une énonciation effective, mais une simple énonciation représentée par le texte, mettant en jeu des sujets d’énoncé distincts des sujets d’énonciation (dialogues de roman, de théâtre, récit autobiographique fictif, formes de discours rapporté) : cf. à ce propos les points 3. et 4. de É nonciation . BIBLIOGRAPHIE Barbéris J.M., Gardès-Madray F. 1988, « Praxématique et analyse textuelle : les concepts de discours et d’énonciation historique », Cahiers de praxématique 10, Praxiling, Montpellier III, 121-146. Benveniste E. 1966, Problèmes de linguistique générale, Ve Partie (« L’Homme dans la langue »), chap. 19 (« Les relations de temps dans le verbe »), Paris : Gallimard, 237-250. Danon-Boileau L. (éd.). 1984, Les Plans d’énonciation, Langages 73, Paris : Larousse. Kerbrat-Orecchioni C., 1980, L’Énonciation. De la subjectivité dans le langage, Paris : A. Colin. J.-M. Barbéris, T. Bouguerra. Pronoms personnels pronom de non-personne mixte symptomatique de non-personne personne LES PRONOMS PERSONNELS L’étude approfondie des marques de la personne est souvent fondamentale pour mener à bien une analyse textuelle. La notion de personne n’est propre qu’à je, tu, nous, et vous : ces pronoms permettent d’identifier les protagonistes de l’énonciation, qui sont chaque fois uniques. À l’inverse, la valeur anaphorique de il (forme dite de troisième personne) permet de lui substituer une infinité de sujets : il a pour fonction d’exprimer la non-personne. Je/tu Être sujet, c’est se dire sujet, c’est se dire je : je est le symbole linguistique de l’inscription de l’être de parole dans l’espace et dans le temps. Les déictiques topothétiques : ici, ailleurs, mais aussi chronothétiques : maintenant, avant, après, s’organisent et se repèrent en fonction du point de vue de je. (Cf. Repères théoriques Temps, espace et subjectivité) Tu dépend étroitement de je ; ces deux pronoms sont réversibles : je ne peut se poser sans accorder à l’autre la possibilité de devenir je à son tour. Ces deux personnes s’opposent à la non-personne il. Il(s)/elle(s) Tout ce qui n’est pas je/tu est l’autre de la personne. La troisième personne est une personne absente ou exclue du dialogue. Dans cette non-personne se regroupent indifféremment humains et objets. Les psychanalystes établissent une distinction fondamentale entre le moi et le ça : tous ceux qui n’ont pas accès à la parole et ne peuvent donc se poser en sujets sont rejetés dans la non-personne. (Cf. Repères thé riques Le Même et l’Autre) Il (elle) peut également souligner la révérence (Madame est servie), mais aussi le mépris (Qu’est-ce qu’il raconte?) : dans ce cas, l’interlocuteur est nié en tant que personne. Remarquons pour finir que, dans la tournure impersonnelle, il n’a pas de référent. Nous/vous On peut, au singulier, opposer strictement les personnes subjectives je et tu à la non-personne « ça ». Il n’en va pas de même avec les formes du pluriel nous et vous qui, à l’inverse, intègrent une plus ou moins grande part d’altérité : Le nous inclusif (je + tu) effectue la jonction des personnes entre lesquelles existe une corrélation de subjectivité. Le nous exclusif désigne un je accru de non-personne (exemple : moi et Pierre). Plutôt que de parler de pluriel, on peut introduire ici la notion de « personne amplifiée » (à preuve, les emplois particuliers de nous : nous de majesté ou nous d’auteur / orateur). Vous peut être de même considéré comme une amplification, un expansif du tu (vous : tu + tu...) et peut intégrer un élément quelconque du ça : tu + x... On Le pronom on occupe un statut particulier. En tant que pronom nominal, il relève du statut de la non-personne. Cependant, et pas seulement dans la langue parlée, il remplace souvent nous, forme personnelle. Il convient donc d’expliciter sa visée référentielle, c’est-àdire d’identifier celui ou ceux qu’il désigne. Suivant le contexte, il peut inclure ou exclure énonciateur et énonciataire et, de fait, appartenir à la personne ou à la non-personne. Ce « parapraxème-masque » est donc particulièrement intéressant à analyser au plan de l’implicite. BIBLIOGRAPHIE Benveniste E. 1966, Problèmes de linguistique générale, Paris : Gallimard, 225-236. Cahiers de praxématique 3 1984/1989, Concepts de la praxématique, Praxiling, Montpellier III, 64 et 67-68. Lafont R., Gardès-Madray F. Le texte journalistique et son écriture Lafont R. 309 1976, Introduction à l’analyse textuelle, rééd. Langue et Praxis, Montpellier III, 138-141. des repères théo Actualisation Compétence de lecture Enonciation Etre et Faire Dialogisme Grammaire et production de sens Identification Implicite Isotopie Le même et l’autre Mise en clôture Négation, extraction Nom propre Plans d’énonciation Praxème Pronoms personnels Prototype / stéréotype Schéma narratif Temps, espace et subjectivité Temps verbal Thème / rhème Typologie textuelle 235 193 297 37 291 90 147 149 186 44 84 294 144 303 89 307 232 140 188 183 41 86 Glossaire L’astérisque simple* renvoie à un mot du glossaire. L’astérisque double** renvoie à un encadré Rep ères théoriques . Actant ( s ) actant act ants actantiel Actant Dans la phrase en Faire, positions programmatiques où l’acte trouve la représentation de ses clôtures* initiale et terminale. Dans Pierre lit un conte à Marie ou Un conte est lu par Pierre à Marie, Pierre représente l’origine de l’acte, son initiateur, et sera dit actant actif, confirmé ou premier ; conte pose le terme de l’acte et sera désigné comme actant passif, infirmé ou second ; Marie est le second terme final, bénéficiaire ou destinataire déboîté par certains actes spécifiques, notamment de dire et de don. Cf. Schéma narratif**. Actualisation** actualisation actualise actualisa-tion Opération concrète qu’effectue le sujet en acte de parole. Dotée d’une durée propre – le temps opératif de l’à-dire –, elle consiste à réaliser les potentialités de la langue. Allocutaire allocutaire Sujet* d’énoncé, chargé de représenter la position de destinataire. Partenaire du locuteur*, dans le cadre du système d’allocution, qui met en relation deux pôles fixes de communication, non ré s je/nous <=>tu/vous. Cf. Enonciation**. Ascendance ascendance ascendante Représentation active du temps comme se déroulant du passé vers le futur. Boucle boucle Dans un récit, ensemble d’épisodes dont les Faire parcourent, sans épuiser la tension* narrative, la majeure partie, voire la totalité de 312 Pratiques textuelles l’espacement entre le thème en puissance, borne initiale, et le thème en effet, borne finale de ce récit ; le reste de tension se trouve – sauf fin ouverte – remis en jeu dans la boucle suivante. Ce concept est notamment opératoire dans les récits longs à schéma** répétitif comme le roman d’apprentissage. Clôture clôture clôture textuelle CLÔTURES clôture de l’acte Clôtures – de l’acte : Les verbes de Faire offrent quatre types de représentation des pôles initial et terminal de l’agir. 1° Il pleut (impersonnel) ne dégage pas d’actant. 2° Dans Pierre marche (intransitif), la représentation se dédouble en une tension*, le verbe, comportant sa clôture terminale, et une partie non tensive, l’actant* actif. 3° Dans Pierre feuillette un livre (transitif), le verbe ne comporte aucune clôture, la représentation se referme sur une autre partie également non tensive, l’actant passif. 4° Certains actes demandent la représentation d’un second terme final, le destinataire : Pierre lit un conte à Marie. – syntaxique : Binarité des pôles (origine et terme final) du mouvement syntaxique. Il arrive que les pôles ne soient pas dégagés ; sous une binarité formelle, la clôture est alors acquise sur un élément unique : nominal dans Il y a un chien / C’est un chien (Etre 1 de simple existence ou de pure présence), verbal dans Il pleut (Faire 5 impersonnel). Mais toutes les autres modalités de l’Etre** comme du Faire** dédoublent effectivement la représentation, même si la clôture de l’acte rev des formes diverses. – textuelle** : Bornes formelles d’un texte (marques typographiques, mise en page spécifique etc...) à partir desquelles on isole un texte d’autres textes ou du co-texte*. La praxématique lui substitue la notion de mise en clôture qui permet d’appréhender le texte comme un espace délimitant la circulation du sens et permettant de dégager des programmes grâce auxquels s’effectuent les réglages* de sens. Co-énonciateur co-énonciateur co-énoncia-tion coénonciateur Ce terme explicite le rôle doublement actif de l’énonciataire* dans la production de sens. D’une part, comme instance réelle, le récep- Glossaire 313 teur procède au réglage* du sens proposé dans l’énoncé. D’autre part, comme instance projetée, il influe sur la programmation même du discours en ce que l’énonciateur* anticipe et s’efforce d’orienter l’effet qu’il produira, la réponse (verbale, factuelle ou tacite) qui s’ensuivra. Les marqueurs de dialogisme** constituent des traces observables de cette influence. Cohérence cohérence La cohérence d’un texte repose sur le fait que celui-ci est capable de former pour l’auteur et pour le lecteur un tout significatif, en obéissant à diverses règles d’organisation reconnaissables, à l’intérieur de la typologie textuelle** où il se situe, et en définissant une certaine forme de rapport au réel et aux sujets* engagés dans la communication écrite. Cf. Compétence de lecture**, Typologie textuelle**, Isotopie**, Thème/rhème**, Implicite**, Prototype/ stéréotype**, Dialogisme**. Contexte contexte Situation concrète dans laquelle le texte se produit. Co-texte co-texte Unités textuelles qui précèdent ou suivent l’unité textuelle étudiée Déixis déixis déictiques Fonction linguistique assurée par les unités grammaticales qu’on nomme déictiques. 1) Au sens large, les déictiques se confondent avec les embrayeurs de Jakobson : la déixis opère la jonction entre une forme du langage et une forme du réel. Les pronoms je, tu, les terminaisons verbales de présent, les adverbes aujourd’hui, maintenant en sont des exemples. 2) Dans un sens plus spécifique, la déixis exprime l’ostension, c’est-à-dire le fait de montrer. A l’origine de la déixis, on peut poser le geste d’indication, l’index pointé, qui se trouve remplacé en langage par des outils comme : ça, ici, là, les déterminants démonstratifs. Cf. Grammaire et production de sens**, Temps, espace et subjectivité**, Pronoms personnels**, Identification**. Descendance descendance Représentation passive du temps comme se déroulant du futur vers le passé. Détension détension 314 Pratiques textuelles Voir Tension/détension*. Dialectique du même et de l’autre dialectique dialectique du même et de l’autre Processus qui, après exclusion de l’altérité (aliud) et intégration de l’identité (idem), permet le cheminement, par étapes, vers l’identification d’un soi-même (ipsum). Ce mouvement d’inclusion/exclusion facilite en particulier le réglage* du praxème** et la construction du système de la personne ; il contribue à révéler l’identité du locuteur ou de l’énonciateur. Cf. Le même et l’autre**. Dialogisme** dialogisme dialogique Capacité de l’énoncé à faire entendre, outre la voix de l’énonciateur, une (ou plusieurs) autre(s) voix. Echange échange échanges Unité de base du dialogue, il contient au moins deux interventions (une intervention = une contribution d’un locuteur à un échange), l’une initiative, l’autre réactive, l’association des deux formant une paire adjacente. Il peut aussi en comporter trois : initiative, réactive, évaluative (= un troisième temps de l’échange, sous forme d’accusé de réception ou de commentaire évaluatif). Les échanges sont euxmêmes regroupables en séquences (= une succession d’échanges formant un tout sémantique et/ou pragmatique). L’organisation séquentielle des échanges peut être variée : échanges suivis, croisés, enchâssés. Enonciataire énonciataire Sujet* d’énonciation* : destinataire effectif d’un message émis par l’énonciateur*. L’énonciataire peut devenir aussi allocutaire* (cas où l’auteur interpelle son lecteur comme tu ou vous), voire interlocuteur* (cas plus rare à l’écrit). Cf. Enonciation**. Enonciateur énonciateur énonciatrice Sujet* d’énonciation* : producteur effectif d’un message. L’énonciateur peut se poser de plus comme locuteur* (cas de l’auteur qui se nomme en je, inscrivant son sujet d’énonciation à l’intérieur d’une forme de l’énoncé), ou bien il peut rester dissimulé et ne pas inscrire sa trace énonciative dans le texte. Cf. Enonciation**. Enonciation** énonciation Acte individuel d’appropriation et d’utilisation de la langue ayant pour résultat un énoncé, objet clos (sonore ou graphique). L’activité Glossaire 315 de conversion individuelle de la langue en discours qui caractérise l’énonciation est marquée formellement par les s du Je/ici/maintenant qui constituent le procès d’énonciation (conditions spatio-temporelles, positions entre les protagonistes de l’énonciation). Essentialisation du sens essentialisant essentialisante Compréhension selon laquelle le sens n’est plus le résultat, dans la communication, du travail des interlocuteurs* ou du lecteur, mais un signifié « déjà là », antérieur et supérieur à sa production. Cette vision idéaliste a pour corollaire l’illusion empiriste d’une réification*. Etre/Faire** Etre/Faire Etre Modalités phrastiques du français : la phrase en Etre correspond à la nomination de l’objet, la phrase en Faire à la symbolisation de l’agir. Existant existant existants Forme nominale de l’Etre en programme de phrase : l’existant est le résultat du processus de nomination. Cf. Etre/Faire**. Extraction extraction Opération syntaxique consistant à prélever/déplacer en tête de phrase un syntagme à l’aide du tour c’est... qui/que, afin de le rhématiser*. Faire Voir Etre/Faire* Hétérogénéité hétérogénéité hétérogènes hétérogénéité constitutive hétérogénéité montrée Caractère composite de la parole du sujet*, procédant de ce que la langue fait de l’autre que je fais mien à travers la parole des autres. Cette incessante appropriation, du fait qu’elle n’est jamais parfaitement réalisée (homogénéité), suscite des non-coïncidences du sujet avec sa parole. Cf. Dialogisme**. Interlocuteur interlocuteur interlo-cuteur interlocu-teur interlocuteurs Sujet* d’énoncé, chargé de représenter le destinataire du locuteur*, dans le cadre du système d’interlocution, qui met en rapport deux sujets communicants (conversation bipartite) ou plus (conversation multipartite). Le propre du système d’interlocution est d’instaurer une réversibilité de la parole, permettant aux partenaires d’occuper 316 Pratiques textuelles alternativement le rôle du locuteur (je/nous) et celui de l’interlocuteur (tu/vous). Cf. Enonciation**. Isotopie** isotopie isotopies isoto-pies bi-isotopique Notion avancée par la sémantique structurale pour rendre compte de la cohérence* textuelle. La possibilité deux ou plusieurs lectures du même texte signale une bi ou pluri-isotopie.
40,455
hal-02791748-2018_Richard_Quae_Hors%20Collection_2.txt_5
French-Science-Pile
Open Science
Various open science
2,020
). Une agronomie pour le XXIe siècle. Editions Quae, 307 p., 2019, 978-2-7592-2937-6 978-2-7592-2938-3 978-2-7592-2939-0. &#x27E8;hal-02791748&#x27E9;
None
French
Spoken
6,931
11,529
Exercices de synthèse organisés autour des enjeux finalisés de l’Inra, ESCo et Études sont de véritables démarches de progrès. Elles valorisent largement pour les chercheurs eux-mêmes l’investissement lourd qu’elles exigent. En effet, la pratique des ESCo et des Études est généralement source de bénéfices scientifiques : – l’ouverture pluridisciplinaire : condition indispensable de réduction des risques de biais de l’expertise, elle instaure la pratique d’un dialogue critique entre disciplines, interne aux sciences biologiques et biotechniques mais aussi entre elles et les sciences de la société. Elle incite au dépassement des cultures consanguines des collectifs de recherche et des appartenances d’établissement ; – la remise en perspective des thèmes de recherche : que ce soit au niveau des chercheurs individuels ou des collectifs (de l’équipe de recherche à l’institut), la vision intégratrice d’une problématique conduit à reconsidérer les périmètres, la hiérarchie et la structure des questionnements. Les témoignages a posteriori des experts et l’évolution des axes stratégiques de l’institut en attestent largement. Se combinant à la dynamique endogène des disciplines et des écoles, il s’agit d’un facteur de dynamique du positionnement, de reconception stratégique et de renouvellement thématique. Documents de référence Inra, 2011. Charte de l’expertise scientifique institutionnelle, 9 p. Inra-DEPE, 2018. Principes de conduite des expertises et des études scientifiques collectives pour éclairer les politiques et le débat publics (version 1). Inra, Paris, 52 p. Sabbagh C., Le Bars Y., Stengel P., 2014. Des expertises scientifiques crédibles en appui à la décision et au débat publics. Retour d’expérience sur les expertises scientifiques collectives de l’Inra. Natures Sciences Sociétés, 22, 366-372. 65 66 Un département Environnement et Agronomie à l’Inra : une stratégie de recherche Les recherches ont des impacts Ariane Gaunand Pourquoi évaluer les impacts de la recherche ? L’évaluation des impacts de la recherche est une préoccupation ancienne des pouvoirs publics qui la financent. Mais dans les années 1990 et plus encore 2000, c’est la société tout entière qui se montre attentive aux retombées positives ou négatives de la recherche scientifique. L’Inra, organisme de recherche publique dont la responsabilité va au-delà de la production de connaissances scientifiques, souhaite montrer aux décideurs et aux financeurs, et plus largement aux acteurs socio-économiques, ou encore à la société civile, que ses recherches sont menées dans l’intérêt général et profitent effectivement, d’une manière ou d’une autre, aux différentes composantes de la société. Depuis 2011, la direction de l’Inra, soucieuse de développer une « culture de l’impact » dans ses communautés de travail, a doté l’institut d’un instrument d’évaluation et d’analyse des impacts sociétaux de ses recherches. Une équipe de chercheurs en sciences sociales a élaboré une méthode standardisée, basée sur des études de cas issues de travaux de recherche : la méthode Asirpa®. Elle a été validée par un conseil scientifique international et plusieurs publications. À ce jour, pour l’ensemble de l’Inra, quarante-huit études de cas ont été réalisées, et une douzaine sont en cours. Pour ce qui le concerne, le département EA, particulièrement concerné par les enjeux sociétaux et politiques, a été ou est engagé dans douze études. La trajectoire, de la recherche à l’impact Un impact est un effet ou conséquence d’un événement, d’une activité, d’un processus ou d’une infrastructure sur la société. Par « impact de la recherche », on entend donc les effets directs et indirects des différentes composantes de cette activité (production de connaissances, de compétences, d’expertise, de savoir-faire, d’infrastructures) sur l’économie, l’environnement, la santé, les politiques publiques et le capital social. À la différence de ce que sous-tend la sémantique de l’impact (un choc immédiat fortement localisé dans le temps et dans l’espace), les impacts de la recherche sont générés par des processus longs (au-delà de dix-quinze ans) et ils peuvent se propager dans des espaces très étendus. L’impact est rarement attribuable de manière univoque à un seul acteur de la recherche. La compréhension fine des trajectoires d’impact suivies par les recherches passées éclaire les stratégies actuelles et permet d’optimiser l’impact des recherches présentes ou programmées. La méthode Asirpa® propose trois outils méthodologiques pour mettre en évidence, dans chaque étude de cas, le rôle des différents acteurs impliqués avec l’Inra dans les mécanismes qui génèrent les impacts des recherches : – le chemin d’impact, qui retrace les étapes qui vont de la construction d’une configuration productive de recherche partenariale à la production de connaissances, méthodes, outils ou autres résultats, qui sont alors transformés et adaptés par différents utilisateurs et produisent sur eux des impacts. Ce continuum recherche-impact n’est pas linéaire ; il est notamment soumis à des changements de contexte parfois déterminants ; – la chronologie, qui inscrit dans le temps les choix des acteurs et les différentes « bifurcations » du chemin d’impact. La chronologie permet par exemple d’observer l’imprévisibilité des chemins et les délais entre les différentes étapes du chemin ; – le vecteur d’impact, qui permet de caractériser de manière multi­dimensionnelle, qualitative et quantitative, les impacts générés par la recherche sur la société. La construction du vecteur d’impact repose sur l’application de barèmes de notation systématiques des impacts. Loin de renseigner une liste d’indicateurs prédéfinis, l’Inra s’intéresse aux impacts tels qu’ils sont exprimés, avec leurs propres arguments, par les personnes directement touchées par les travaux de recherche. Ces descripteurs d’impacts locaux sont recueillis auprès des personnes impactées lors d’entretiens semi-directifs. Les impacts des recherches du département Environnement et Agronomie Douze études de cas ont été réalisées dans le département EA, dont sept études (marquées d’un * dans le tableau ci-après) conduites dans le cadre de l’évaluation collective du départe- Les recherches ont des impacts ment par un comité d’experts internationaux en 2014. Ces études de cas ont été sélectionnées selon deux critères : l’opportunité (par exemple un impact sociétal important lié aux recherches est effectivement observable aujourd’hui, la contribution de l’Inra à cet impact est importante et identifiable) ; la faisabilité (par exemple les données extérieures pour avérer l’impact existent, un scientifique de l’Inra est à même de conduire cette étude). Les études de cas du département EA montrent la diversité des objets et finalités des recherches du département (eau, sol, changement climatique, systèmes de culture, fertilisation, recyclage), la mobilisation d’outils collectifs comme les essais-système ou les bases de données sur les sols ou le climat, et enfin le rôle des partenariats (unités mixtes techno­ logiques, réseaux mixtes technologiques, groupements d’intérêt scientifique, etc.). Ces études de cas illustrent la manière dont le département EA génère des impacts, à travers des contributions à la formulation, à la mise en œuvre ou à l’évaluation de politiques publiques environnementales, sanitaires ou sociales, ou bien via le transfert de technologies industrielles innovantes. Les douze études de cas réalisées dans le département Environnement et Agronomie. Fertilisation azotée et outils d’aide à la décision* (OAD Azote) Des outils de gestion de la pollution d’origine agricole en Bretagne* (Nitrate Bretagne) 1999-2002 Expertise scientifique collective sur les pesticides (ESCo Pesticides) Expertise scientifique collective sur les variétés tolérantes aux herbicides (ESCo VTH) Un système d’information sur les sols de France* (Infosol) Une méthode d’évaluation de l’impact du changement climatique sur les grandes cultures développée dans l’ANR Climator* (Climator) 2004-2008 Une politique publique de réduction des usages de pesticides : le plan Écophyto* (EcoPhyto) La création d’une start-up sur des technologies de méthanisation* (Naskéo) Une méthode d’inventaire des émissions agricoles de N2O* (Émissions N2O) Couples variétés-itinéraires bas intrants blé (Blé Bas Intrants) 2011-2015 Outils de gestion quantitative territoriale de l’eau (Gestion eau) Conception de systèmes de cultures innovants (SDC Innovants) 2016-2020 * études conduites dans le cadre de l’évaluation collective du département EA. Exemple des impacts des travaux de l’unité Infosol L’unité Infosol de l’Inra d’Orléans, créée en 2001, a développé un système d’information sur les sols, leur distribution spatiale, leurs propriétés et l’évolution de ces propriétés. Infosol est la « cheville ouvrière » du groupement d’intérêt scientifique (GIS) Sol, composé de l’Inra, de l’IRD, de l’Institut géographique national (IGN), de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), et des ministères en charge de l’Agriculture et de l’Environ­ nement. Il est en charge de la mise en œuvre de ses programmes concernant : l’Inventaire de la qualité des sols, le Réseau de surveillance de la qualité des sols de France, la Base de données d’analyses de terres, la Base de données des éléments traces métalliques. Les données d’Infosol ont contribué à la négociation, la formulation, la mise en œuvre ou l’évaluation de diverses actions publiques : – des politiques agricoles, avec l’établissement de zonages prenant systématiquement en compte les sols : des données ont, par exemple, été mobilisées pour réviser la délimitation des zones défavorisées simples (zones de handicap naturel en dehors des zones de montagne) et les règles d’allocations d’aides de la Politique agricole commune qui prendront a priori effet en 2018 ; – des politiques environnementales de gestion et de préservation des ressources en eau, de la biodiversité des sols : des données ont ainsi été mobilisées pour classer les bassins versants alsaciens en fonction de leur sensibilité aux produits phytosanitaires ou produire des carto­graphies régionales des risques d’érosion ; 67 68 Un département Environnement et Agronomie à l’Inra : une stratégie de recherche – des politiques d’aménagement du territoire, avec l’identification, dans les schémas de cohérence territoriale de l’Indre, des sols à hauts potentiels agricoles à préserver de l’urbanisation, ou encore l’évaluation de l’impact du tracé d’infrastructures comme le projet de ligne à grande vitesse Lyon-Turin ; – des politiques de gestion des risques sanitaires, par exemple avec la publication d’atlas régionaux des concentrations environnementales, expositions et risques pour quatre éléments traces métalliques qui ont servi à l’élaboration du 2e Plan national Santé Environ­ nement (PNSE2) ; – une évaluation de l’impact environnemental : les données d’Infosol ont permis de calculer la recharge de la nappe phréatique de la Beauce et ainsi de déterminer des quotas d’irrigation attribués par la préfecture du département d’Eure-et-Loir ; elles sont également utilisées par l’Ademe pour détecter des contaminations ponctuelles des sols dans des sites industriels. Pour en savoir plus Joly P.-B., Gaunand A., Colinet L., Larédo P., Lemarié S., Matt M., 2015. ASIRPA: A comprehensive theorybased approach to assessing the societal impacts of a research organization. Research Evaluation, 24 (4), 1-14, DOI:10.1093/reseval/rvv015. Joly P.-B., Colinet L., Gaunand A., Lemarié S., Larédo P., Matt M., 2015. Évaluer l'impact sociétal de la recherche pour apprendre à le gérer : l'approche ASIRPA et l'exemple de la recherche agronomique. Gérer et Comprendre, (122), 31-42, décembre 2015. Gaunand A., Colinet L., Joly P-B., Matt M., 2017. Counting what really counts? Assessing the political impact of science. Journal of Technology Transfer, DOI: 10.1007/s10961-017-9605-9. Matt M., Gaunand A., Joly P.-B., Colinet L., 2017. Opening the black box of impact. Ideal-type impact pathways in a public agricultural research organization. Research Policy, 46 (1), 207-218, DOI: 10.1016/j. respol.2016.09.016. Partie II Les recherches sur les agroécosystèmes : les nouveaux enjeux du xxie siècle Chapitre 5 La prise en charge de l’enjeu climatique dans les recherches du département Sylvain Pellerin, Jérôme Balesdent, Philippe Debaeke, Bernard Itier La plupart des processus étudiés au sein du département Environnement et Agronomie (EA) dépendent de variables climatiques. Bien avant l’émergence de l’enjeu lié au changement climatique, beaucoup de travaux ont été consacrés à l’étude de la réponse des plantes à la température, au rayonnement incident et à l’alimentation hydrique. Il en a été de même pour l’étude et la modélisation des processus intervenant dans le sol, comme la minéralisation des matières organiques ou les transferts de molécules polluantes des sols agricoles vers les compartiments air et eau. L’hypothèse qui accompagnait ces travaux était celle d’un climat moyen localement constant, mais variable spatialement et caractérisé par une variabilité inter-journalière et interannuelle forte. À partir de 1990, les rapports successifs du Giec (1990 ; 1995 ; 2001 ; 2007 ; 2014) ont apporté la preuve, avec de plus en plus d’observations convergentes, d’un changement climatique en cours lié à l’accumulation de GES dans l’atmosphère du fait des activités humaines. L’hypothèse d’un climat constant commençait à être remise en cause. Au sein du département de Bioclimatologie, quelques travaux pionniers étaient alors consacrés à l’étude de la réponse des plantes à des concentrations accrues en dioxyde de carbone (CO2) croisées avec des températures élevées, parfois avec des contraintes hydriques plus fortes, préfigurant des scénarios climatiques futurs, mais sans qu’une réelle stratégie scientifique ait été élaborée au niveau de l’institut73. C’est au cours des années 2000 que la prise de conscience de la réalité d’un changement climatique à l’œuvre s’est diffusée au sein de l’Inra. La participation de Bernard Seguin et de Jean-François Soussana au groupe d’experts du Giec et 73. Bethenod O., Ruget F., Katerji N., Combe L., Renard D., 2001. Impact of atmospheric CO2 concentration on water use efficiency of maize. Maydica, 46, 75-80. La prise en charge de l’enjeu climatique dans les recherches du département le prix Nobel de la paix qui a récompensé ce collectif en 2007 y ont contribué également. Citons ainsi la mission confiée à B. Seguin en 2002 (Micces, Mission Inra sur le changement climatique et l’effet de serre) et son travail de sensibilisation de la communauté scientifique et agricole par une série d’écrits et de conférences. Dans ces écrits et prises de parole, qui ont eu un écho dans le monde agricole, les éléments mis en avant étaient avant tout d’ordre climatique et phénologique (ex. : l’avancée des dates de vendanges), avec pour objectif d’illustrer la réalité du réchauffement climatique dans un contexte scientifique et médiatique propice aux controverses. Ils traduisaient aussi le faible investissement de l’Inra sur la question à cette époque. C’est en 2008 qu’un rapport a été confié à B. Seguin par le collège de direction de l’Inra sur les nécessaires recrutements et réorientations à opérer sur la thématique du changement climatique. La réflexion stratégique qui a suivi a amené l’institut à mieux distinguer plusieurs ensembles de travaux à conduire dans le domaine du changement climatique et de ses relations avec l’activité agricole : les émissions de GES d’origine agricole et la contribution de l’agriculture à l’atténuation du changement climatique (incluant les agrocarburants), l’impact du changement climatique sur le fonctionnement des écosystèmes agricoles et forestiers et enfin la mise au point de stratégies d’adaptation. XXÉmissions de gaz à effet de serre et atténuation Des recherches sur les cycles du carbone et de l’azote ont été réalisées par les agronomes avant même la création de l’Inra. On peut citer les travaux de Hénin et Dupuis en 194574, pionniers mondiaux du bilan de carbone des sols. Dans les années 1980, les recherches conduites sur ce sujet dans les départements d’Agronomie et de Science du sol avaient comme motivation de contribuer au développement d’une agriculture plus respectueuse de l’environnement et économe en intrants, dans l’esprit du rapport Poly « Pour une agriculture plus économe et plus autonome »75. L’objectif opérationnel était de gérer l’état organique du sol pour maintenir des propriétés favorables et de mieux raisonner la fertilisation azotée, avec un souci dominant de réduction des fuites de nitrate pour préserver la potabilité de l’eau. Les échelles spatiales considérées étaient principalement les échelles parcellaires et infraparcellaires, hormis le démarrage de quelques travaux à l’échelle du bassin versant hydrologique. Le département de Bioclimatologie était déjà expert sur les échanges de gaz-trace d’oxydes d’azote (NOx), d’ammonium (NH4) et d’ozone (O3) entre agrosystèmes et atmosphère. Au sein du département de Science du sol, quelques travaux pionniers étaient réalisés sur les émissions de protoxyde d’azote (N2O), mais un peu en marge de l’effort collectif sur la maîtrise du cycle de l’azote, puisqu’il s’agissait d’un poste de perte considéré comme négligeable, et sans effet sur la qualité de l’eau, alors objet de préoccupation majeur. Un tournant s’amorce au début des années 1990. Les communautés scientifiques de l’atmosphère et de l’océan interpellent celles de la biosphère continentale sur quelques grandes questions que l’augmentation des émissions de GES a fait 74. Hénin S., Dupuis M., 1945. Essai de bilan de la matière organique du sol. Annales agronomiques, 15, 17-29. 75. Poly J., 1978. Pour une agriculture plus économe et plus autonome. Rapport Inra , 69 p. 71 72 Les recherches sur les agroécosystèmes : les nouveaux enjeux du xxi e siècle émerger : le puits de carbone que constituent les continents de l’hémisphère nord, les émissions de N2O d’origine agricole, les sources et puits non industriels de méthane et les impacts du réchauffement sur la biosphère, notamment pour les rétroactions sur les GES eux-mêmes. Ainsi l’Inra est interrogé directement sur ces questions, sous l’impulsion de la Mission interministérielle pour l’effet de serre et des programmes nationaux Géosphère-Biosphère. L’Inra édite en 1995 les restitutions des réponses aux premiers appels à projets nationaux (« Effet », « Éclat »)76. À partir de 1993, l’atténuation ou l’impact du changement climatique sont systématiquement évoqués dans les publications des départements sur les cycles C ou N. La nécessaire intégration sol-plante-atmosphère pour aborder ces questions, en relation avec la gestion agronomique, a été une des motivations de la fusion des disciplines science du sol, écophysiologie, micrométéorologie, agronomie dans un département unique. La mission du département EA à sa création en 1998 définit ainsi explicitement comme objectif finalisé « la limitation de la contribution de l’agriculture à la pollution atmosphérique et à l’effet de serre ». Les enjeux de l’atténuation du changement climatique ont alors suscité un regain d’intérêt pour des recherches sur les cycles C-N, un temps perçues comme relevant d’un sujet « ayant fait son temps » dans un environnement général de la recherche agronomique marqué par la montée en puissance des biotechnologies. Les unités du département ont produit entre 1998 et 2018 environ 900 articles indexés au Web of Science répondant aux mots-clés <soil carbon or N2O or nitrous oxide>, dont Figure 5.1. Nombre d’articles publiés dans des revues à comité de lecture affiliés à l’Inra, en relation avec le carbone des sols ou N2O, et avec N2O seul. Corpus : Web of Science ; critère : <Topic = soil carbon or N2O or nitrous oxide ; Address content Inra>. La contribution des unités du département EA correspond à environ la moitié de cette production (deux tiers pour N2O) ; l’autre département principal contributeur est EFPA. 76. Perrier A., Saugier B., 1995. Écosystèmes et changements globaux. Dossiers de l’environnement de l’Inra, 8, Paris, 296 p. La prise en charge de l’enjeu climatique dans les recherches du département 60 ont donné lieu à plus de 100 citations (figure 5.1). De surcroît, pour les recherches sur les cycles C-N, la prise en charge de l’enjeu climatique a été à l’origine d’un fort renouvellement des questions traitées et des approches mises en œuvre. Un effort sur les mécanismes à l’origine des émissions La mesure des flux ne permettant pas à elle seule de comprendre les émissions, ni de les modéliser, le département EA a entrepris de nombreuses recherches mécanistes sur les biotransformations de carbone et d’azote, faisant appel à la biogéochimie, incluant l’isotopie, l’écologie microbienne et l’écologie de la rhizo­ sphère. On notera plusieurs contributions notables du département EA à la connaissance générique, qui dépassent le cadre de la seule agriculture. Beaucoup sont issues de la synergie entre les savoir-faire en écologie microbienne moléculaire, en mesures des flux et en maîtrise des dispositifs d’observation, réunis dans le département. Les flux de carbone dans la rhizosphère sont alors mieux appréhendés. Concernant la minéralisation du carbone, la notion de priming effect implique que des apports de carbone frais stimulent la minéralisation des matières organiques initialement présentes ; dans des cas extrêmes, apporter du carbone au sol peut déstocker du carbone ! Seules les méthodes isotopiques le révèlent. Si le processus est connu depuis la fin des années 1980, notamment grâce à des travaux français, l’étude de Fontaine et al. (2007)77 a amélioré considérablement la compréhension du phénomène et lui a donné une visibilité exceptionnelle. Au-delà, un changement de paradigme a lieu : les anciens modèles de carbone du sol avec un coefficient de minéralisation fixe et purement pédoclimatique doivent être remplacés par une représentation de l’écologie des organismes régulant la minéralisation du carbone, en relation avec l’acquisition des éléments nutritifs organiques comme minéraux. La contribution des horizons profonds du sol aux flux de carbone est mieux comprise et quantifiée dans les sols agricoles comme à l’échelle globale78. L’écologie microbienne explique aussi, au moins partiellement, la variation des émissions de protoxyde d’azote par l’abondance des gènes codant pour l’oxyde nitreux réductase79. Des systèmes d’observation aux bilans de gaz à effet de serre et à leur modélisation Le département EA se révèle être un acteur majeur de l’observation des stocks de carbone nationaux et des émissions agricoles, maintenant en synergie avec les observatoires nationaux et internationaux des échanges gazeux entre biosphère et atmosphère (Integrated Carbon Observation System, ICOS ; Analyse et expérimentation sur les écosystèmes, AnaEE). À la fin des années 1990, le ministère de l’Environnement, l’Ademe et l’Inra avaient mis en place le Réseau de mesure de la qualité des sols (RMQS) dans le cadre du GIS Sol. Le RMQS, qui devait contribuer au suivi temporel du carbone national, a permis les premières cartographies 77. Fontaine S., Barot S., Barre P., Bdioui N., Mary B., Rumpel C., 2007. Stability of organic carbon in deep soil layers controlled by fresh carbon supply. Nature, 450, 277-U210. 78. Balesdent J., Basile-Doelsch I., Chadoeuf J., Cornu S., Derrien D., Fekiacova Z., Hatte C., 2018. Atmosphere-soil carbon transfer as a function of soil depth. Nature, 559, 599. 79. « Démonstration d’une origine génétique aux émissions du gaz à effet de serre N2O par les sols ». Retenu comme « fait marquant » (résultat important, publication remarquable ou événement significatif de la qualité de l’activité d’une unité de recherche, sélectionné pour transmission à la direction générale de l’institut) du département EA en 2011, Microbiologie des sols de Dijon. 73 74 Les recherches sur les agroécosystèmes : les nouveaux enjeux du xxi e siècle des stocks. L’unité Infosol établit également des tendances temporelles de l’évo­ lution des sols grâce à la Base de données des analyses de terre (BDAT). À partir des années 2000, les efforts portent aussi sur la mesure des émissions de N2O, leur modélisation et la caractérisation du bilan GES complet des systèmes de culture. Le « développement de chambres automatisées pour le suivi en continu des émissions d’oxydes d’azote (NO, N2O) d’origine agricole »80 et l’équipement de sites avec des tours à flux permettent de multiplier les mesures. L’objectif de connaissance et de réduction des émissions de N2O stimule des recherches sur l’ensemble du cycle de N et sur la réduction des pertes et fuites des agrosystèmes. Les travaux du département EA en lien avec les émissions de méthane (CH4) concernent les émissions liées à l’élevage et le traitement et la valorisation des produits résiduaires organiques. Peu de travaux sont consacrés aux émissions ou aux puits de méthane directs des sols. Les évolutions du carbone des sols ne pouvant être suivies que sur des dispositifs dont la durée est de plusieurs décennies, les unités expérimentales de l’Inra s’avèrent précieuses. Certaines se transforment en Observatoires de recherche en environ­ nement (ORE, devenus Systèmes d’observation et d’expérimentation pour la recherche en environnement, Soere), qui viennent en appui des bilans de GES et sont des supports privilégiés de la modélisation, notamment Agroécosystèmes, cycles biogéochimiques et biodiversité (ORE ACBB), avec l’ajout des prairies temporaires (à Lusignan) et des grandes cultures (à Estrées-Mons) au réseau d’observation des écosystèmes, et l’ORE Produits résiduaires organiques (PRO) sur le suivi d’épandage des produits résiduaires. Les modèles de simulation AMG et l’outil SIMEOS-AMG permettent au secteur d’activité agricole de prévoir et de gérer les stocks de carbone des sols. L’outil Azofert® de raisonnement de la fertilisation azotée intègre les émissions de N2O. L’estimation des émissions de GES des agrosystèmes est opérationnelle pour l’évaluation environnementale81. Dans les années 2010, les résultats obtenus permettent de proposer des leviers pour l’atténuation des émissions, comme l’introduction des légumineuses, l’utilisation des produits résiduaires organiques, les cultures intermédiaires, l’optimisation de la fertilisation bien sûr, et de concevoir des systèmes peu émetteurs (expérimentations-système à Grignon , voir chapitre 18). Outre les systèmes d’observation, modèles et outils d’aide à la décision, des structures et partenariats nouveaux appuient les recherches sur l’atténuation du changement climatique : création de l’unité AgroImpact, alliances au sein du Laboratoire d’excellence Biodiversité, agroécosystèmes, société, climat (Labex BASC), et de l’UMR Centre européen de recherche et d’enseignement des géosciences de l’environnement (Cerege) ; création de l’unité mixte technologique (UMT) GES-N2O, des réseaux mixtes technologiques (RMT) Fertilisation et environnement, et Biomasse. Un élargissement des échelles La problématique de l’atténuation du changement climatique a fortement contribué à étendre la dimension spatiale des recherches sur les cycles bio­­­géo­ chimiques, amorcée un peu plus tôt par l’étude des transferts d’azote dans les bassins versants hydrologiques. L’évaluation des variations de stocks de C du sol 80. « Fait marquant » du département EA en 2008. 81. « Prise en compte des bilans des émissions de carbone, d’azote et de gaz à effet de serre dans l’évaluation de la durabilité d’un système de culture », « fait marquant » du département EA en 2010. La prise en charge de l’enjeu climatique dans les recherches du département ou des émissions de N2O dans un contexte de contribution de l’agriculture aux émissions de GES ou d’atténuation pose de facto le problème de l’intégration spatiale des résultats, puisque seules des émissions calculées sur de grandes surfaces font sens vis-à-vis du climat. La question des transferts de pollution se pose également très rapidement : la dénitrification, qui est encore en 1990 la dépollution « parfaite » du nitrate d’origine agricole, devient pollution globale. La théorie de la cascade de l’azote82, qui a valu en 2008 à James Galloway le prix Tyler, « Nobel de l’environnement », fait envisager le cycle de l’azote à plusieurs échelles emboîtées, allant jusqu’à l’échelle globale. Du fait de l’utilisation d’engrais azotés de synthèse, l’agriculture est à l’origine d’émissions directes intervenant sur les parcelles agricoles, mais aussi d’émissions indirectes intervenant après transport de nitrate ou d’ammonium vers des milieux non agricoles et d’émissions induites à l’amont ou à l’aval des exploitations liées à la fabrication d’intrants (engrais azotés) ou à la transformation des produits. Il devient évident que le raisonnement de la fertilisation azotée à l’échelle locale reste nécessaire mais ne suffit plus. Parce que le recyclage du carbone comme de l’azote en agriculture et la valorisation énergétique des effluents tendent à minimiser les émissions, atténuation, recyclage et économie circulaire vont de pair. La problématique du recyclage devient essentielle. Il faut connaître et maîtriser le cycle de l’azote et des autres éléments à des niveaux d’organisation englobants, jusqu’à l’échelle globale, puisque c’est à ce niveau que les activités humaines ont perturbé les cycles et que l’enjeu climatique se pose. L’Inra contribue aux études nationales, européennes et internationales des émissions à des échelles larges (projet ANR Escapade, projet européen NitroEurope, etc.). Par leur contribution aux réseaux de mesures mondiales des flux, des équipes EA et EFPA contribuent à de nombreuses synthèses internationales (par exemple Carbon cycling and sequestration opportunities in temperate grasslands, 2004 ; Atmospheric composition change: eco­systems-atmosphere interactions, 2009 ; Biophysical and economic limits to negative CO2 emissions, 2016). Des chercheurs du département proposent à la communauté internationale « un nouveau modèle statistique pour l’estimation à l’échelle mondiale des émissions de N2O dues à la fertilisation azotée »83. Une implication croissante des chercheurs du département dans l’appui à la décision publique, sur des questions éminemment politiques Les chercheurs du département ont été pendant cette période de plus en plus sollicités pour l’expertise et l’élaboration de politiques publiques. À l’échelle internationale, la France a toujours été proactive pour la réduction des émissions, avec des motivations diverses. Le protocole de Kyoto en 1990 a inclus les émissions associées au land use, land-use change and forestry (LULUCF), y compris dans les permis carbone, mais les méthodes de comptabilité étaient encore à négocier. C’est une des raisons pour lesquelles la Mission interministérielle de l’effet de serre et le ministère de l’Environnement, en charge de la négociation, interpellent l’Inra en 1990 sur cette question non neutre. Face aux lobbies gigantesques de l’énergie, le poids de l’agriculture et la biosphère sont facilement manipulés, pour minimiser le poids des émissions fossiles, pour détourner l’attention ou servir d’alibi. 82. Gruber N., Galloway J.N., 2008. An Earth-system perspective of the global nitrogen cycle. Nature, 451, 293-296. 83. Retenu comme « fait marquant » du département EA en 2012. 75 76 Les recherches sur les agroécosystèmes : les nouveaux enjeux du xxi e siècle Encadré 5.1. La saga du carbone Dominique Arrouays Avant les années 1990, le carbone dans les sols était principalement étudié pour son rôle vis-à-vis de certaines propriétés des sols comme, par exemple, la rétention et la fourniture en éléments minéraux ou la stabilité structurale. Le déclencheur de l’étude du cycle du carbone vis-à-vis de l’atténuation du changement climatique a certainement été le protocole de Kyoto (1990). Au début de la création du département EA, plusieurs programmes de recherche (Éclat, Agriges) financés par les ministères en charge de l’Environnement et de l’Agriculture ont commencé à aborder le carbone des sols sous l’angle de son stockage et de son potentiel d’atténuation. C’est en 1999 que J. Balesdent et D. Arrouays citent pour la première fois l’exemple du « 4 pour 1 000 ». Schématiquement, ce chiffre suggère qu’il suffirait d’augmenter tous les ans de 4 pour 1 000 les stocks de carbone des sols du monde pour compenser les émissions mondiales. En 2000, le ministère en charge de l’Environnement commandite une des toutes premières expertises collectives de l’Inra sur le thème du stockage de carbone dans les sols agricoles. Les premières évaluations nationales de ces stocks sont produites et une analyse du potentiel de stockage en fonction de changements d’usages ou de pratiques est réalisée. Le département EA est également sollicité pour mettre à disposition du GIEC des experts (J.-F. Soussana, B. Seguin, J.-C. Germon, D. Arrouays). Les travaux menés par les équipes du département EA sur le cycle du carbone vont alors se multiplier. Ils s’orientent dans plusieurs directions : l’étude de l’effet des pratiques agricoles en mettant à profit les essais de longue durée, l’analyse fondamentale de l’origine et du temps moyen de résidence du carbone à partir d’outils isotopiques, l’affinement des estimations globales et spatialisées des stocks de carbone, les déterminants de la protection des matières organiques vis-à-vis de leur minéralisation, la quantification de « compartiments » ayant des temps moyens de résidence différents — l’exemple le plus marquant étant sans doute celui tiré de l’essai de très longue durée de Versailles, dit des « 42 parcelles » —, la mise au point et la calibration de modèles de dynamique du carbone, le chiffrage et la spatialisation du potentiel de stockage ou de séquestration. Même si elle reste relativement imprécise, la mesure directe des flux de GES par Eddy Covariance permet de réaliser des bilans de GES et l’Inra s’impose à l’échelle internationale comme un fer de lance incontournable dans ce domaine. En 2013, une nouvelle expertise menée par l’institut permet d’affiner les estimations des potentiels de stockage (figure 5.2). Aujourd’hui, le département EA se place comme l’un des leaders mondiaux sur ce thème, comme en témoignent des articles dans des revues de niveau exceptionnel telles que Nature, Science ou Nature Climate Change. Le chiffre de « 4 pour 1 000 » a été repris en 2015 comme un « slogan » Figure 5.2. Quelle contribution de par le ministre de l’Agriculture Stéphane Le Foll* l’agri­­ culture française à la réduction lors de la COP21. Celui-ci a d’ailleurs été ensuite des émissions de gaz à effet de serre ? Potentiel d’atténuation et coût de dix honoré par l’Union internationale des sciences du actions techniques. Synthèse du rapport sol, qui lui a remis un prix lors d’un séminaire d’étude, Pellerin S., Bamière L., Angers D., dédié organisé à l’Inra début 2016. Béline F., Benoit M., Butault J.-P. et al., 2013. Inra, France, 92 p. * Ministre de l’Agriculture, de l’Agroalimentaire et de la Forêt de 2012 à 2017. La prise en charge de l’enjeu climatique dans les recherches du département À l’échelle nationale, même si la réduction des émissions est dans les grandes lignes en phase avec le courant écologique (climate-smart agriculture), les dif­férentes sensibilités à l’environnement peuvent s’affronter sur le terrain scientifique. Concernant de nombreuses émissions et typiquement celles du méthane par les ruminants, les conduites intensives vs extensives peuvent se ranger en ordre inverse selon qu’on comptabilise les émissions par unité de surface ou de produit. Les émissions de N2O ont stigmatisé l’agriculture intensive, car la première méthode d’estimation des émissions reprise par le GIEC en 1990 (et toujours en cours) fait l’hypothèse que les émissions sont proportionnelles à la fertilisation azotée minérale (méthode « tiers 1 »). Au département EA, les spécialistes de la dénitrification ont l’intuition que cette hypothèse est très approximative ; elle est en tout cas peu porteuse d’innovation. En 2008, une étude de Crutzen et al.84 invalide le potentiel d’atténuation du réchauffement par les agrocarburants de première génération, les émissions de N2O, entre autres, annulant le gain de C fossile. Cette remise en cause, associée à la crise alimentaire de 2007-2008 et au débat sociétal croissant sur l’éthique de la production d’énergie sur des terres agricoles, porte un coup d’arrêt aux recherches sur les agrocarburants de première génération. Aujourd’hui encore, l’alternative entre l’exploitation énergétique de la biomasse et sa restitution aux sols reste un point d’achoppement de la décision en agriculture et sylviculture. Le département participe à l’appui à la décision et à la politique publique pour la réduction des émissions de GES. Très vite la contribution des sols au stockage de C donne lieu à plusieurs questionnements et débats (encadré 5.1). Les sols de la planète contiennent environ 1 500 à 2 000 Gt de carbone, sans compter le permafrost (800 Gt), soit deux fois plus que la biomasse sur pied ou l’atmosphère, ou encore 150 à 200 ans d’émissions de combustibles fossiles. Dès les années 1990, les écosystèmes de l’hémisphère nord sont apparus comme un puits net de carbone, et la question de la réponse de la minéralisation du carbone organique au changement climatique et à l’usage des terres a été posée. À cette époque, l’agriculture était déjà parfaitement consciente du rôle des matières organiques dans la fertilité et la conservation des sols. Selon le ou les enjeux considérés (fertilité du sol et/ou atténuation du changement climatique), la teneur dans l’horizon de surface, le stock dans l’horizon labouré ou sur la totalité de la profondeur du profil doivent être considérés différemment. Des résultats anciens sur l’effet de pratiques agricoles sur la teneur en carbone des sols sont alors revisités avec des débats scientifiques parfois vifs, dont l’exemple le plus emblématique est l’effet du non-travail sur le stockage de C (encadré 5.2). En 2002, le département coordonne une première expertise collective sur le carbone des sols en lien avec l’atténuation du changement climatique, « Stocker du carbone dans les sols agricoles en France ? »85 (encadré 5.1). En 2012, l’Inra initie le métaprogramme EcoServ sur les services écosystémiques rendus par les écosystèmes agricoles et forestiers, incluant le service de régulation du climat global, et des chercheurs du département participent au programme Efese-EA du ministère de l’Écologie, incluant là aussi un volet sur la contribution des 84. Crutzen P.J., Mosier A.R., Smith K.A., Winiwarter W., 2008. N2O release from agro-biofuel production negates global warming reduction by replacing fossil fuels. Atmospheric Chemistry and Physics, 8, 389-395. 85. Arrouays D., Balesdent J., Germon J.C., Jayet P.A., Soussana J.-F., Stengel P., 2002. Contribution à la lutte contre l’effet de serre. Stocker du carbone dans les sols agricoles de France ? Expertise scientifique collective. Synthèse, Inra, 32 p. 77 78 Les recherches sur les agroécosystèmes : les nouveaux enjeux du xxi e siècle Encadré 5.2. La trajectoire sinueuse des connaissances de l’impact du travail du sol sur le stockage de carbone et sur les émissions de gaz à effet de serre Jérôme Balesdent Au cours des années 1990, les travaux du département de Science du sol et les essais de l’ITCF (devenu Arvalis) avaient montré que le labour conventionnel pouvait accélérer la minéralisation du carbone organique, l’exposition du sol nu aux intempéries combinée avec la très basse teneur en carbone des premiers centimètres favorisant la déstructuration et la déprotection du carbone des sols limoneux (Science du sol, Versailles, 2000). Les premières méta-analyses mondiales concluaient en même temps à un stockage de carbone important par les techniques sans labour, qui sont largement pratiquées dans les deux Amériques. La réduction du travail du sol diminue aussi la consommation énergétique et les coûts de main-d’œuvre. Cependant, l’estimation de la réduction des émissions de GES par abandon du labour va diminuer progressivement en deux décennies. La première expertise collective de l’Inra sur le stockage de carbone (2002) retient un chiffre de stockage de 0,2 ± 0,1 t C/ha/an, plus modeste que celui de la littérature. Puis les travaux des unités AgroImpact et Microbiologie des sols notamment vont montrer que le non-travail peut augmenter les émissions de N2O (2007-2011). Les méta-analyses mondiales révisent aussi à la baisse le potentiel de stockage de C, en prenant mieux en compte le bilan en profondeur et le compactage, et en séparant l’apport additionnel de carbone des cultures intermédiaires qui accompagnent souvent le no-till dans le semis sous couvert. L’excellente étude de Dimassi et al. (2014)* montre que l’effet du labour sur le carbone dépend des conditions climatiques, et donc des climats régionaux (« Le travail du sol impacte peu le stockage du carbone », fait marquant 2014). Actuellement, à la fin des années 2010, les pratiques de travail du sol ne doivent plus être considérées comme ayant un effet binaire sur le carbone (stocke, ne stocke pas) mais multi-varié ; et les agrosystèmes européens labourés depuis des siècles ne répondent pas comme ceux tout récemment défrichés des nouveaux mondes. Les autres bénéfices environnementaux du travail réduit, du mulch, du semis sous couvert végétal et des concentrations en carbone élevées dans les premiers centimètres, eux, restent. * Dimassi B., Mary B., Wylleman R., Labreuche J., Couture D., Piraux F., Cohan J.P., 2014. Long-term effect of contrasted tillage and crop management on soil carbon dynamics during 41 years. Agriculture Ecosystems and Environment, 188, 134-146. écosystèmes agricoles à la régulation du climat. En 2013, l’Inra, dans une expertise collective coordonnée par les départements EA et SAE2, identifie dix actions pour « réduire les émissions de gaz à effet de serre de l’agriculture française », en en faisant l’analyse économique (figure 5.2). En 2015, lors de la COP21 à Paris, le ministre en charge de l’Agriculture Stéphane Le Foll, conseillé par la recherche scientifique sur les bénéfices agricoles et environnementaux du carbone des sols, lance l’initiative « 4 pour 1 000 : les sols pour la sécurité alimentaire et le climat », qui devient programme international. L’intitulé-symbole provient du rapport entre l’augmentation annuelle du CO2 de l’atmosphère (4,5 Gt C/an en 2015) et le stock de carbone des 30-40 premiers centimètres des sols (estimé à plus de 1 000 Gt C) : augmenter le stock de 4 pour 1 000 par an stopperait l’augmentation du CO2. Anecdote et hasard des chiffres, les unités de Science du sol de Versailles et d’Orléans avaient publié en 1999 le même chiffre (« une augmentation annuelle de ce réservoir de seulement 0,4 % par an stockerait autant de carbone que la combustion de carbone fossile n’en émet »), faisant alors allusion à un stock évalué à 1 500 Gt et à une compensation des émissions de 6 Gt C/an en 1995, beaucoup plus basses que celles de 2015. Dans la foulée de l’initiative 4 pour 1 000, une nouvelle étude est demandée à l’Inra en 2017, dont les résultats seront rendus La prise en charge de l’enjeu climatique dans les recherches du département début 2019, sur les possibilités d’atteindre l’objectif 4 pour 1 000 sur le territoire national et les coûts qu’ils impliqueront, et dont la démarche a vocation à servir de modèle pour d’autres pays et collectifs. XXImpacts du changement climatique L’étude des impacts du changement climatique vu comme une évolution tendancielle vers de plus hautes températures, un accroissement du CO2 atmo­sphérique et des régimes hydriques plus fréquemment contraints, n’a pas été pendant longtemps un objectif prioritaire pour les agronomes, écophysiologistes et bioclimatologistes de l’Inra. Les premières études d’impact du changement climatique sur le fonctionnement des couverts et sur les rendements sont à mettre au crédit des bioclimatologistes d’Avignon et de Grignon au début des années 199086. Au niveau de la direction du département EA, il faut attendre le schéma stratégique de département (SSD) 2011-2015 pour que le changement climatique soit pointé comme un enjeu majeur pour les recherches (au-delà des questions relatives à l’atténuation de l’effet de serre) et le SSD actuel (2016-2020) pour que l’adaptation au changement climatique s’affiche explicitement dans les intitulés de certaines priorités scientifiques. Tout ceci concorde avec le décollage des pub­­­­li­ cations de l’Inra sur le changement climatique à partir de 2007 et l’accélération observée depuis les années 2010, elle-même globalement synchrone des pro­­ ductions internationales par rapport aux productions internationales dans le domaine (figure 5.3). Pour autant, comme évoqué en introduction, il faut faire état chez les agronomes et les bioclimatologistes d’une longue tradition de travaux sur les effets des facteurs climatiques et édaphiques sur le développement, la croissance et l’élaboration du rendement et de la qualité des productions de grandes cultures, plantes fourragères, cultures maraîchères, vigne et arbres fruitiers. Ces travaux se justifiaient déjà par la variabilité inter-régionale des conditions de production (sols, climats) et par l’occurrence de séquences climatiques exceptionnelles ou d’accidents climatiques (gel, sécheresse de 1976) justifiant un élargissement des gammes explorées.
12,535
2009BOR21661_1
French-Science-Pile
Open Science
Various open science
2,009
Impact du cancer de la prostate sur la vie quotidienne du couple âgé
None
French
Spoken
7,540
11,742
Université Bordeaux 2Victor Segalen Ecole Doctorale 303 Sciences Sociales, Société, Santé, Décision DOCTORAT PSYCHOLOGIE Sylvie Petit Née le 04 novembre 1979 IMPACT DU CANCER DE LA PROSTATE SUR LA VIE QUOTIDIENNE DU COUPLE AGE Th èse dirigée par le professeur Jean Bouisson Soutenue le 3 décembre 2009 Jury de soutenance : Professeur D. Alaphilippe, Université de Tours, Rapporteur Professeur H. Chabrol, Université de Toulouse, Rapporteur Professeur B. Fromage, Université d’Angers, Membre du jury Professeur N. Rascle, Université de Bordeaux 2 Présidente Professeur J. Swendsen, Directeur, UMR 5231, CNRS Membre du jury 1 Résumé : Les recherches récentes menées sur le cancer s’accordent sur le fait que l’âge serait un des principaux facteurs de risque (Tubiana, 2002). C’est notamment le cas du cancer de la prostate, la plupart des cas étant constatés entre 60 et 90 ans (âge moyen de détection : 73 ans). Les personnes âgées se trouvent alors confrontées à différentes problématiques afférentes à la vieillesse, dont le cancer fait partie. Faire face à cette maladie n’est pas le seul défi du patient âgé, le cancer perturbant sa vie au niveau de tout son environnement affectif et social. Nous nous intéressons dans cette thèse à connaître l’impact psychologique du cancer de la prostate sur la vie quotidienne des patients âgés et de leurs épouses. Nous présentons les résultats menés auprès de 96 patients atteints du cancer de la prostate et de leur conjointe recrutés sur deux centres régionaux de lutte contre le cancer. Nous mettrons en place une nouvelle méthodologie : la méthode écologique d’échantillonnage des expériences qui se déroule sur 3 cycles d’évaluations durant 4 jours (en début de traitement, en milieu de traitement et en fin de traitement). Cette méthode nous permet d’établir les liens entre variables (/heure, /jour, /sujet, entre sujets et au sein du couple), et d’observer et de comparer l’ajustement des patients et de leur conjointe suivant différents âges (Swendsen, 1997 ; Czikszentmihalyi, 1984). Nos résultats mettent en évidence trois points essentiels : Tout d’abord il s’agit de distinguer les différences de ressentis et de stratégies de coping selon l’âge des couples pris en charge. Ensuite, le second point important de cette recherche est la notion d’inter individualité. Cette étude discrimine tout à fait les attitudes et les émotions que peuvent vivre au quotidien les patients des épouses. Enfin, le troisième point concerne le temps de la prise en charge. Il existe une réelle progression des ressentis et de l’ajustement psychologique des couples tout au long du traitement. Cette étude permet d’affiner nos connaissances sur le couple âgé confronté à la maladie et, plus spécifiquement, sur son ajustement émotionnel et sa qualité de vie lorsqu’il lui faut faire face au cancer de la prostate. Cette recherche est financée par la Ligue Nationale de Lutte Contre le Cancer, France. Mots clefs : Couple â gé, cop ing , méthode d’échantillon nage des expériences ( ESM), ajustement émotionnel, cancer de la prostate . Laboratoire de Psychologie « Santé et Qualité de vie » EA 4139. 3 ter place de la Victoire, 33076 Bordeaux cedex . 2 Summary : Recent research consistently indicates that age is a major risk factor for cancer (Tubiana, 2002). Such is the case of prostate cancer, which is typically detected between the ages of 60 and 90 (average age of detection: 73 years). Coping with the physical effects of cancer is not the only challenge for elderly patients; cancer may also affect patient’s emotional and social lives as well. The current study presents results of an experience sampling study on the psychological impact of prostate cancer on the daily lives of elderly patients and their wives. We present data on 96 patients with prostate cancer and their spouse who were recruited from two Regional Center for the Fight Against Cancer in Bordeaux, France. Participants completed 3 daily assessments for 4 days (at the beginning of treatment, in the middle of treatment and at the end of treatment). The methodology has a number of advantages, including that it allows us to establish the relationship between variables (coping, quality of life, anxiety and depression), between subjects, and within the couple. The methodology also allows us to observe and compare the adjustment of patients and their partner following different ages (Swendsen, 1997, Czikszentmihalyi, 1984). Our results schowing three key points: First, we distinguiging the differences of feeling and coping strategies by spouses’age. The second point concern the concept of interindividual. This study discriminate behavior and emotions in everyday life of couples. The third important point concerns time management. There is an increased in feeling and psychosocial adjustement on the treatment. This study will help us to refine our knowledge and understanding of emotional adjustment and quality of life of patients with prostate cancer and their spouses. We will thus be able to realize the importance of taking into account the couple and not just patients in psychological interventions. This research is being funded by the National League for the Fight against Cancer, France. Key words : Elderly couple, Coping, Experience Sampling Method, Emotional adjustment, prostate cancer. Laboratoire de Psychologie « Santé et Qualité de vie » EA 4139. 3 ter place de la Victoire, 33076 Bordeaux cedex. 3 « On croit communément qu’il est difficile d’être heureux, et on n’a que trop de raison de le croire ; mais il serait plus aisé de le devenir, si chez les hommes les réflexions et le plan de conduite en précédaient les actions. On est entraîné par les circonstances, et on se livre aux espérances qui ne rendent jamais qu’à moitié ce qu’on en attend : enfin, on n’aperçoit bien clairement les moyens d’être heureux que lorsque l’âge et les entraves qu’on s’est données y mettent des obstacles » (Madame du Châtelet, Discours sur le Bonheur,daté aux environs de 1746-1747,(1997) p31) 4 Re merci ements L’activité de recherche d’une thèse est loin d’être une mince affaire. C’est une application quotidienne à laquelle il faut livrer tout ou partie de son temps et de son énergie. Le travail que vous vous apprétez à lire n’a pu voir le jour et se construire que grâce à la compréhension, au soutien et à la collaboration de tout mon entourage social, qu’il soit professionnel et /ou affectif. De plus, certains évènements de la vie m’ont parfois ralentie, voire même arrêtée au cours de cette thèse. Bien des fois, le doute s’est installé. Ainsi, chaque personne qui m’a aidée, soutenue ou simplement écoutée, a apporté sa pierre à l’édification de cet ouvrage. Pardon à l’avance de ne pas pouvoir citer tout le monde. Tout d’abord, je tiens à remercier la Ligue nationale contre la cancer, qui a cru en mon projet et qui m’a accordée toute sa confiance. Merci à M.Allouis, de m’avoir soutenue tout au long de ce travail. Ensuite, je voudrais remercier particulièrement mon directeur de thèse, le professeur Jean Bouisson. Vos conseils avisés et votre formation m’ont permis de sans cesse m’améliorer et d’apprendre tout au long de ces années. Merci aussi de m’avoir soutenue comme vous l’avez fait dans les moments difficiles. De plus, je tiens à remercier sincèrement le professeur Swendsen. Je vous remercie, non seulement pour m’avoir formée à la méthodologie ESM, mais aussi soutenue et encouragée tout au long de mon travail. Egalement, je remercie les professeurs Alaphilippe, Chabrol, Fromage et Rascle, pour avoir bien voulu accepter de prendre du temps afin d’évaluer cette thèse. Je tiens ensuite à remercier les patients et les épouses qui ont bien voulu participer à cette étude. Malgré leur vie modifiée et bouleversée par la maladie, ils n’ont pas hésité à s’engager, à donner un peu de leur temps et à respecter les contraintes des questionnaires que nous leur proposions, pour nous aider à en savoir un peu plus sur les difficultés d’ajustement du couple âgé au cancer de la prostate. 5 Je remercie l’institut Bergonié pour avoir accepté de contribuer à ce travail. Plus particulièrement les docteurs Houede et Richaud ainsi que tous les manipulateurs radio qui m’ont été d’une grande aide et d’un grand soutien tout au long de ce travail de recherche. Je n’oublierai pas Fabienne, pour sa gentillesse et son accueil qui ont tellement facilité les prises de rendez vous des patients. Merci à la polyclinique Francheville, particuliérement M. Malterre, qui m’a permis de rencontrer tous les intervenants de la clinique en vue de la mise en place de cette étude. Je remercie les manipulateurs radio, les docteurs Prié, Cany et Kin pour leur accueil et leur motivation dans cette recherche. Merci encore à Charlotte, une stagiaire hors pair, sur qui j’ai pu compter et qui s’est totalement investie dans cette recherche. Je remercie également tous les membres de l’EA 4139, pour leur soutien et leur encouragement. Parmi eux, je remercie notamment, Anaïs, mon amie et collègue. Tu m’as tant appris pendant ces années, tu m’as soutenue, aidée et pour cela je ne te remercierai jamais assez. De plus, je n’oublie pas Mme Cousson-Gélie, pour son soutien et son aide. J’espère qu’avec Anaïs, nous continuerons notre travail en collaboration. Je tiens à remercier tous les collègues et les enseignants de psychologie clinique et psychopathologie, pour leurs conseils et leurs attitudes de soutien dans les moments de doute. Je remercie mes ami(e)s de m’avoir accompagnée tout au long de ces années difficiles. Je ne remercierai jamais assez ma famille. Ma mère qui a été présente du début de mon master recherche à cette fin de thèse. Mon père et ma belle-mère qui ont été là pour me remettre en selle quand j’en ai eu besoin. Merci à mon frère et ma sœur, votre soutien me va droit au cœur. Je terminerai en remerciant David, mon cher compagnon, pour sa présence, son affection, sa patience, son soutien, cet accompagnement quotidien et constant tout au long de la rédaction de cette thèse. A vous tous, et à ceux que j’ai peut-être oubliés (veuillez m’en excuser), merci! 6 TABLE DES MATIERES Introduction P1 PARTIE THEORIQUE Chapitre I Cancer de la prostate P14 1-1Définitions P14 1-2Epidémiologie du cancer P15 1-3Le cancer de la prostate P17 1-3-1Point de vue médical P17 1-3-1-1Définition P17 1-3-1-2Dépistage et diagnostic. P18 1-3-1-3Traitement du cancer de la prostate P19 1-3-2Aspects psychologiques P22 1-3-2-1Cancer de la prostate et fragilité liée à l’âge P22 1-3-2-2Le cancer de la prostate face à ses représentations P24 Chapitre II Couple âgé, coping et cancer de la prostate P26 2-1Du couple jeune au couple âgé : l’histoire de la relation à deux P26 2-1-1Le couple âgé : un détour par deux mythes fondateurs P27 2-1-1-1Apollon ou Idas: le choix de Marpessa P27 2-1-1-2Philémon et Baucis : un lien éternel P28 2-1-2Les modèles du couple au fil du temps P29 2-1-2-1Point de vue développemental P29 2-1-2-2Point de vue systémique P31 2-2Couple et Coping : un ajustement en devenir face aux épreuves de la vie P34 2-2-1Contexte d’apparition et définitions P34 2-2-1-1L’adaptation et les mécanismes de défense, des notions proches P34 7 2-2-1-2Le coping 2-2-2Quelques modèles de coping P35 P36 2-2-2-1Le modèle de Cheng, 2003 P36 2-2-2-2Le modèle de Holahan et Moos, 1991 P37 2-2-2-3Modèle de coping développemental-contextuel du couple de Berg et Upchurch, 2007 P37 2-2-3Coping chez les couples âgés atteints d’un cancer de la prostate P39 Chapitre III Troubles psychopathologiques, cancer de la prostate et échantillonnage des expériences, en vie quotidienne P 42 3-1Troubles psychopathologiques, cancer de la prostate et couple âgé en vie quotidienne P42 3-1-1Définition de la dépression P42 3-1-1-1La dépression chez la personne âgée P44 3-1-1-2La dépression et le cancer de la prostate chez le couple âgé P46 3-1-2Définition de l’anxiété P48 3-1-2-1L’anxiété chez la personne âgée P49 3-1-2-2L’anxiété et le cancer de la prostate chez le couple âgé P52 3-2Vie quotidienne et échantillonnage des expériences (ESM) P55 3-2-1Définition et historique de la méthode P55 3-2-2Validité psychométrique de la méthode P57 3-2-2-1Cohérence interne et fidélité test-retest P57 3-2-2-2Validité des mesures ESM P58 3-2-3Implication de la méthode ESM auprès des personnes âgées P60 Chapitre IV Synthèse, conclusion et hypothèses P64 8 PARTIE EMPIRIQUE Chapitre V Méthodologie P68 5-1Organisme d’acceptation du projet de recherche P68 5-2Les participants P68 5-2-1Le choix des participants P68 5-2-2Description des participants de l’étude P68 5-2-3Les critères d’inclusion et d’exclusion à l’étude P69 5-3Procédure de recherche P69 5-3-1Etude pilote P69 5-3-2Méthodologie de la recherche finale P70 5-4Les variables en vie quotidienne P72 5-4-1Activités et autres P72 5-4-2Les ressentis émotionnels P73 5-4-3La relation conjugale P73 5-4-4Les événements de vie P74 5-4-5La mesure des styles de coping P74 5-5Analyses statistiques P75 Chapitre VI Résultats P77 6-1Caractéristiques de l’échantillon de l’étude P77 6-2Variables mesurées en vie quotidienne P78 6-3Hypothèses théoriques : Les stratégies de coping : Associations avec les émotions, le genre et le temps d’évaluation P79 6-3-1Hypothèse 1. P79 6-3-2Hypothèse 2. : Liens entre les styles de coping et le genre P82 6-3-3Hypothèse 3. : Effet du temps sur le lien entre les styles de coping P83 6-4Objectifs descriptifs : Association entre les ressentis émotionnels, les stratégies de coping, le soutien dans la relation conjugale et le temps d’évaluation P85 9 6-4-1Objectifs descriptifs 1. : Liens entre l’humeur et le temps d’évaluation P85 6-4-2Objectifs descriptifs 2. : Liens entre l’humeur et le soutien conjugal tout au long du traitement P86 6-4-3Objectifs descriptifs 3. : Liens entre les stratégies de coping et le soutien conjugal tout au long du traitement P88 Chapitre VII Discussion P90 Chapitre VIII Conclusion P97 Bibliographie P99 Glossaire P110 Index des Tableaux et des schémas P112 Sommaire des Annexes P115 Annexes P116 Chaque mot précédé d’un « * » est défini dans le glossaire. 10 Introduction « Je t’aimerai toujours (...) Commence d’abord par m’aimer tous les jours.» (Jardin, 2009, p349) Voici les écrits surprenants d’un de nos écrivains contemporains qui, il y a quelques années avec son premier opus « Fanfan » prônait pourtant l’Amour passion comme idéal de vie. La quête du Saint Graal : le grand Amour. Or voilà qu’aujourd’hui cet auteur « retourne sa veste » en faisant l’apologie de la vie quotidienne en couple. En effet, pour lui la vie quotidienne ne doit pas s’affirmer comme un ronron rassurant et confortable mais comme la somme de petites surprises qui mises bout à bout feront qu’aujourd’hui ne ressemblera jamais à hier. Cependant, la vie a deux s’étiole ou encore se consolide dans l’affrontement inévitable des multiples stresseurs de la vie quotidienne. Certains conjoints s’y révèlent, s’y affirment, trouvent en eux de nouvelles ressources, pendant que d’autres s’y désespèrent et s’y consument, tout ceci en un jeu de forces et d’alliances dont l’équilibre peut être labile, souple, rigide, structurant, incertain, dépendant de multiples facteurs extérieurs qui ne se révèlent souvent que dans l’après coup. La rencontre de la maladie grave est une de ces épreuves parmi les plus redoutables pour le couple, où « l’amour toujours » doit s’affronter au risque de la fatigue, de l’usure et des incompréhensions de la souffrance, de l’ambivalence des sentiments. Cette alchimie subtile et délicate d’émotions et de sentiments se déclinant à l’infini, nous n’avons cessé de la côtoyer tout au long de notre recherche. Intéressée, il y a 3 ans, par l’appel d’offre lancé par la Ligue nationale contre le cancer, à propos des conséquences du cancer de la prostate, il nous avait semblé, immédiatement, que nous avions, de cette façon, l’opportunité d’aller étudier le couple dans ses dynamiques les plus intimes. Le cancer de la prostate, en effet, interpelle directement le couple dans l’un de ses principaux fondements : la sexualité. Les deux conjoints se trouvent atteints dans ce qui les lie, à un âge (le cancer de la prostate affecte le plus souvent l'homme âgé) où, justement, celle-ci peut être remise en question ou donner lieu à de nouveaux équilibres et de nouvelles expressions. L'appel d'offre insistait sur les souffrances psychologiques des deux conjoints, sur l'absence de travaux en ce domaine, et sur l’urgence d’engager des recherches permettant de mieux comprendre ce qui se passait alors dans la vie quotidienne du couple, de façon à dégager des informations et des stratégies d’aide utiles aux soignants. Nous avons essayé de relever le défi. Accepté, notre 11 projet a bénéficié d’un financement de la Ligue nationale contre le Cancer, qui nous a permis de réaliser cette thèse. En fait, nous avons délibérément choisi de ne pas tout présenter de nos résultats. Très volumineux, ils feront l’objet de publications ultérieures. Constatant qu’il n’existait pratiquement pas, pour l’instant, de données de référence à leur opposer, nous nous sommes strictement arrêtés et limités à ce qui nous semblait scientifiquement valide, et immédiatement exploitable dans la pratique clinique, sans chercher à poursuivre dans des développements hasardeux ou purement hypothétiques. Nous espérons que, dans l’avenir, d’autres recherches nous permettront d’aller plus loin et d’aboutir à une vision plus globale et certainement plus satisfaisante. Pour ouvrir notre réflexion, nous commencerons par présenter les principales caractéristiques du cancer de la prostate. Nous poursuivrons par une revue de la littérature afférente au couple âgé et aux problématiques psychopathologiques qui sont les siennes face au cancer de la prostate, pour terminer sur la description d’un outil d’évaluation original permettant d’aller saisir au plus près la dynamique des échanges quotidiens au sein du couple. Ensuite nous procéderons à la description de notre méthodologie, et de nos participants. Enfin, nous terminerons cette recherche en résumant de façon claire et concise nos résultats, pour les discuter et tenter de dégager leur intérêt dans la pratique clinique. 12 PARTIE THEORIQUE 13 Chapitre I Cancer de la prostate 1-1 Définitions Contrairement à la pensée commune, le cancer est loin d’être une maladie contemporaine. C’est au cours de l’antiquité que les premières esquisses le décrivant ont pu être retrouvées. Faisant suite aux papyrus descriptifs, c’est réellement le très célèbre médecin grec Hippocrate (460-370 av JC) qui décrivit de façon méthodique la maladie et qui classifia les cancers qu’il eut l’occasion de traiter. Il fut le premier à nommer cette infection « carcinos » et « carcinoma » afin de décrire ces grosseurs qui semblaient être des tumeurs malignes (karkinos (grecs) : 1) crabe, 2) chancre, cancre, tumeur). Le terme latin de cancer fut, selon la légende, introduit par le médecin romain, Aulus Cornelius Celsus (25 av JC,50 ap JC) d’après la forme de certaines lésions cancéreuses évoquant la forme d’un crabe. Il fut, d’ailleurs, un des tout premiers, à réellement décrire différents degrés d’évolution de la maladie. Le terme de « cancer » est donc très ancien. Cependant, il est devenu au fil du temps synonyme de souffrance et de mort. Sa connotation péjorative lui vaut d’être mis à l’écart et remplacé par un terme tout aussi ancien : l’oncologie*. Le médecin romain Galien (130-200) préféra le terme grec « Onkos » pour désigner les tumeurs malignes. Il développa des théories innovantes sur le cancer, selon lesquelles les tumeurs étaient dues à un excès « d’humeur », de bile noire, qui se solidifiait dans certaines parties du corps. Au fil des siècles naissent différentes théories et descriptions des cancers. En effet, les avancées technologiques ainsi que la révolution scientifique, se basant sur l’observation clinique des faits et le recueil de données, ont permis d’observer de réels progrès. Une compréhension plus fine du comportement des tumeurs a pu voir le jour. Ainsi, c’est grâce à ces premières explications que sont apparues d’autres théories selon lesquelles le cancer était une maladie de l’organisme. En définitive, l’innovation de notre siècle réside dans la découverte de l’atteinte de la cellule par le cancer, plus particulièrement, de son noyau, ainsi qu’une multiplication anarchique des cellules. En effet, la ligue nationale de lutte contre le cancer décrit cette affection comme suit : « Le cancer est une maladie grave qui se traduit par une perturbation de la communication cellulaire, associée à une absence de mort cellulaire, engendrant le 14 développement d’amas de cellules cancéreuses (appelés tumeurs) qui échappent aux règles du fonctionnement du corps. En se multipliant de façon anarchique, les cellules cancéreuses donnent naissance à des tumeurs de plus en plus grosses qui se développent en envahissant puis en détruisant les zones qui les entourent (les organes Les cellules cancéreuses peuvent également essaimer à distance d’un organe pour former une nouvelle tumeur, ou circuler sous forme libre» (2007). Ces cellules se détachent et migrent dans une autre partie du corps. Ces tumeurs ainsi créées sont nommées des métastases. Non seulement il existe de nombreuses formes de cancer, ou stades, mais en plus, les tumeurs peuvent toucher toutes les parties du corps (Bouchard, Lespérance, Brisson, et Tremblay, 2005). La fréquence des cancers va en augmentant. L’explication de cette forte croissance tient au progrès médicaux et à l’utilisation du dépistage systématique. 1-2 Epidémiologie du cancer C’est grâce au réseau Francim, soutenu par la ligue nationale de lutte contre le cancer, que nous pouvons regrouper l’ensemble des registres français des cancers. Cette étude est menée, depuis 1989, auprès de plus de 205.000 françaises et français âgés de plus de 15 ans. Les auteurs de cette recherche ont pu ainsi analyser et regrouper, à la fin 2006, des informations concernant 614 613 tumeurs. Cette étude avance que « moins de la moitié des patients décède des conséquences directes ou indirectes de leur maladie dans les 5 ans qui suivent le diagnostic. » (Francim, 2005, p 2 cité dans la ligue contre le cancer). Cependant, ils observent, par rapport à cette conclusion, de fortes disparités, notamment selon les pathologies. En effet, la survie relative à 5 ans est particulièrement élevée pour certains cancers tels que celui de la thyroïde, du testicule et de la lèvre (95%). Mais elle l’est beaucoup moins pour des cancers dont la localisation est plus profonde (exemple du cancer du foie et du pancréas avec moins de 10% de survie relative). Des disparités en fonction du genre sont également observées. La survie à 5 ans est plus élevée chez les femmes que chez les hommes (63% contre 44%). L’alcoolisme et le tabagisme expliquent en grande partie cette différence. Enfin, l’âge des patients est aussi facteur de disparité de survie à 5 ans. Ce phénomène est la résultante de l’interaction de plusieurs phénomènes : la fragilité des sujets âgés, la maladie à un stade plus évolué au moment du diagnostic, une thérapeutique moins agressive et moins efficace, ou encore la nature même des tumeurs qui diffèrent avec l’âge. Cependant, malgré ces disparités, il a été clairement démontré qu’un dépistage précoce favorise la rémission de 15 nombreux cancers. Parmi les tumeurs, le cancer le plus fréquent est celui de la prostate chez les hommes âgés de 45 à 74 ans (Tableau 1) et c’est celui du sein chez les femmes (Tableau 2). Cette tranche d’âge se distingue également au niveau de la cause de mortalité qui est principalement due aux tumeurs puis aux maladies cardio-vasculaires. Ce qui diffère un tant soit peu de la tranche d’âge plus élevée, les 74 ans et plus, dont la tendance est à l’inverse. En effet, les causes de décès dans cette seconde tranche d’âge sont d’abord les maladies cardiovasculaires, qui deviennent prépondérantes sur les décès par cancer. A l’heure actuelle et toujours selon le rapport du Haut Comité de santé publique de 2002, les cancers et les maladies cardio-vasculaires représentent les motifs d’admission en affection longue durée (ALD) les plus importants. Tableau 1 : Fréquence et mortalité des 6 cancers les plus fréquents chez les hommes en France, (réseau Francim, 2005) Localisation du cancer Nombre nouveaux cas Taux d'incidence* Nombre de décès Taux de mortalité* Prostate Poumon Colon-Rectum Lèvre-bouchepharynx Vessie Lymphome non hodgkinien* 62245 23937 19913 9531 121.2 50.5 37.7 21.8 9202 20950 8901 3264 13.5 42.0 15.2 7.2 7959 5523 14.6 12.1 3384 2242 5.6 4.0 * taux standardisé annuel selon la population mondiale exprimé pour 100.000 personnes Tableau 2 : Fréquence et mortalité des 6 cancers les plus fréquents chez les femmes en France, (réseau Francim, 2005) Localisation du cancer Nombre nouveaux cas Taux d'incidence* Nombre de décès Taux de mortalité* Sein Colon-Rectum Poumon Corps de l'utérus Thyroïde Lymphome non Hodgkinien* 49814 17500 6714 5774 101.5 24.5 12.6 10.0 11201 7964 5674 1800 17.7 8.9 9.4 2.3 5073 4701 12.7 8.2 256 1961 0.3 2.3 * taux standardisé annuel selon la population mondiale exprimé pour 100.000 personnes 16 Une fois de plus, l’éloquence de ces chiffres nous montre à quel point le cancer est depuis toujours un réel problème de santé publique. Non seulement sa fréquence augmente, mais on ne peut nier son nombre croissant chez les plus de 45 ans. En effet, plus d’un cancer sur quatre survient après 75 ans. Cependant, malgré la fréquence élevée et la forte mortalité, les prises en charge des cancers auprès des personnes âgées doivent progresser et s’adapter à cette population et à ses caractéristiques spécifiques. A l’heure actuelle, la prise en charge des personnes âgées atteintes d’un cancer est desservie par l’attitude défaitiste de l’entourage. En effet, cette maladie est encore sous le joug de représent et de stéréotypes morbides. En conséquence, le monde médical s’interroge lui aussi sur les protocoles de prise en charge thérapeutique, qui sont encore mal adaptés aux spécificités de la population âgée. 1-3 Le cancer de la prostate 1-3-1 Point de vue médical S’agissant du cancer de la prostate, les recherches actuelles s’accordent à dire qu’il est la troisième cause de décès par cancer chez les hommes et qu’il a l’incidence* la plus élevée. Ainsi, 62245 nouveaux cas sont dénombrés en 2005 (Ligue nationale contre le cancer). 1-3 -1-1 Définition La prostate est une glande ; elle se situe au niveau de la sortie de la vessie et entoure le canal la prolongeant : l’urètre (cf. schéma 1). On distingue deux types de tumeur de la prostate : bénigne ou maligne. Dans le premier cas, qui est, par ailleurs, le plus fréquent, on parle de l’adénome*, correspondant à une augmentation du volume du centre de la prostate. Nous pouvons observer qu’après 50 ans, près de la moitié des hommes en sont atteints. L’adénome, du fait de sa situation anatomique (cf. schéma 1), entraîne de nombreux troubles urinaires. Un traitement médicamenteux peut suffire pour le traiter, cependant une chirurgie est bien souvent nécessaire. Dans le second cas, il n’existe pas de symptôme spécifique au cancer de la prostate mais, à un stade avancé, les troubles liés au cancer peuvent être semblables à ceux provoqués par un adénome (fréquence anormale des besoins d’uriner, difficultés à émettre les urines, blocage complet ou encore douleur en urinant). 17 Schéma 1 : Situation anatomique de la prostate 1-3 -1-2 Dépistage et diagnostic Ce type de cancer apparaît rarement avant 40-50 ans, et la plupart des cas sont constatés entre 60 et 90 ans, l’âge moyen de détection étant de 73 ans. Ce cancer évolue très lentement, parfois pendant plus de 10 ans. En ce qui concerne son dépistage, il n’existe pas de lien formel établissant qu’un dépistage systématique dans la population générale (dosage sanguin du taux de PSA : Prostatic Specific Antigen*) diminuerait la mortalité liée au cancer de la prostate. Cependant, une prise en charge précoce permet un meilleur pronostic quant à la survie relative. Trois examens sont importants pour pouvoir diagnostiquer un cancer de la prostate : Le premier correspond à l’examen clinique, qui repose sur la palpation de la prostate lors d’un toucher rectal. Le second consiste en une prise de sang permettant d’apprécier le taux de PSA du patient (Une prostate fonctionnant normalement présente un taux de PSA de 4 nano grammes par ml). Un taux élevé n’autorise pas le diagnostic d’un cancer mais permet de suspecter un mauvais fonctionnement de la prostate. Cependant, le taux de PSA, mesuré au cours des traitements, est en général un très bon indicateur d’efficacité ou encore un outil utile de détection d’une rechute. Une fois le doute d’un cancer de la prostate émis, une biopsie de la prostate (prélèvement par voie rectale de fragment du tissu prostatique à l’aide d’une aiguille spécifique), s’avère nécessaire afin de pouvoir mettre en place un traitement approprié au plus vite (Trébucq et al., 2008). 18 1-3-1-3 Traitement du cancer de la prostate Les traitements De nos jours, plusieurs modalités de traitement du cancer existent. Chacune est utilisée seule ou encore en association. Les décisions thérapeutiques sont actuellement prises en fonction : de la localisation de la tumeur, de son stade, de l’âge du patient et de son état général (Kirk, 1998). L’intervention chirurgicale contribue à guérir une proportion importante de cancer. L'acte chirurgical peut, selon les cas, consister à retirer un organe, une partie d'un organe (tumorectomie) et peut s'accompagner d'une reconstruction. La chirurgie est souvent associée à une chimiothérapie et/ou une radiothérapie. Ce traitement est bien souvent accompagné d’effets secondaires importants. En effet, 44 à 75% des patients présentent des dysfonctionnements sexuels après une prostatectomie (Matthew, et al., 2005). D’autres complications telles que des troubles urinaires sont aussi observées (Litwin et al., 1999, Scott et al., 2001, KirschnerHermann et Jakse, 2002, Matthew, et al., 2005). La radiothérapie consiste à exposer les malades à des rayonnements de haute énergie (rayons X, électrons, photons) destinés à détruire les cellules cancéreuses. L'irradiation vise à détruire la tumeur en protégeant au maximum les tissus sains voisins. La sensibilité aux radiations varie selon les tissus et les différents types de cellules (Trébucq et al., 2008). Un autre type de radiothérapie voit le jour depuis quelques années : la curiethérapie. Dans cette forme, une source de rayonnement est directement implantée dans la tumeur. Les résultats sont très convaincants, cependant elle n’est applicable qu’à des tumeurs ne dépassant pas une certaine taille. Les effets secondaires de la radiothérapie sont fréquents mais s’amenuisent avec le temps. Une fatigue est également fréquente après quelques séances. Dans tous les cas, des mesures appropriées permettent d'en atténuer les désagréments. Ils varient suivant la zone irradiée et peuvent provoquer des rectites (complication au niveau du rectum). En effet, Geinitz et ses collaborateurs (2006) dans leur étude auprès de 249 patients traités par radiothérapie en Allemagne, ont montré l’impact important que ces symptômes pouvaient causer au niveau du rectum au quotidien. Des effets secondaires sont également remarqués au niveau des troubles érectiles (Jani et Hellman, 2003). Des complications intestinales ont été observées sur 2 à 30 % des patients traités par radiothérapie, des troubles urinaires auprès de 0,5 à 35 %, et, 30 à 50 % des patients présentaient des troubles sexuels (ANAES, rapport 2004). Litwin et al., 1999, ont comparé les fonctionnements et les gênes sexuelles, suite aux traitements par prostatectomie radicale et radiothérapie, auprès de 438 hommes américains 19 (Moyenne d’âge de 64.2 ans, E T : 7.4) à un stade oce de la maladie. Selon eux, quel que soit le traitement, la fonction sexuelle semble s'améliorer au fil du temps, avec ou sans l'utilisation des aides érectiles. Il semblerait que les fonctions sexuelles des deux groupes s’améliorent à des taux comparables au cours de la première année, et ce malgré une activité sexuelle significativement meilleure dans le groupe traité par radiothérapie, immédiatement après le traitement. Cependant, dans la deuxième année, le groupe traité par radiothérapie a commencé à montrer une modeste mais statistiquement significative diminution des fonctions sexuelles, alors que le second groupe a continué de progresser. Cela valide l'observation clinique selon laquelle les hommes âgés sont beaucoup moins susceptibles que les jeunes hommes de retrouver leur activité sexuelle après le traitement. Les hormonothérapies, quant à elles, agissent de façon à rendre inopérantes les hormones qui influencent la croissance d'une tumeur. Pour cela, on a recours à des antagonistes des hormones, qui agissent en se fixant sur les récepteurs hormonaux. Dès lors, les hormones ne peuvent plus agir sur la multiplication des cellules cancéreuses. L'hormonothérapie est le plus souvent associée aux autres traitements du cancer, notamment la chirurgie et la radiothérapie. On observe comme effets secondaires des bouffées de chaleur, une perte de la libido ou de la fonction érectile, une prise de poids, parfois une inflammation du foie et une ostéoporose. Ces effets sont généralement de courte et moyenne durées pour le traitement par hormonothérapie brève, utilisée le plus souvent dans les phases de démarrage du cancer de la prostate (Jani et Hellman, 2003). La chimiothérapie a pour but de détruire les cellules cancéreuses ou de les empêcher de se multiplier par l'administration de produits toxiques pour les cellules cancéreuses. Ces produits agissent aussi sur les autres cellules de l'organisme qui se développent rapidement, et cela explique les effets secondaires de ces médicaments. Le traitement par chimiothérapie peut intervenir avant l'intervention chirurgicale ou la radiothérapie. Il est alors nommé : « néo adjuvante ». Il peut aussi intervenir après la chirurgie (chimiothérapie adjuvante), parfois de façon concomitante avec la radiothérapie. Les effets secondaires peuvent être : la fatigue, l'alopécie (calvitie, perte des cheveux), l'infection. Le risque infectieux est majeur chez le malade, c'est une grande cause de mortalité. D’autres effets font suite à ce traitement : les nausées et les vomissements, l'anorexie, la constipation, l’atteinte des muqueuses, des complications cardiaques, etc. Ces effets aires sont fréquents et d'intensité variable d'une personne à l'autre. 20 Les traitements au cours de la vieillesse Les progrès en matière de dépistage et l’augmentation de l’espérance de vie de la population expliquent en grande partie la forte croissance du nombre de patients atteints d’un cancer de la prostate. Comme nous venons de le voir précédemment, les prises en charge médicales de ce cancer vont de l’observation à la surveillance attentive, à l’hormonothérapie et aux modalités thérapeutiques curatives. L’âge, facteur de risque* principal de ce cancer, est également considéré comme une variable de pronostic majeure dans la décision thérapeutique, aussi important que le taux de PSA et le score de Gleason (stade du cancer exprimé par un score de gravité). Dans le traitement des personnes âgées, la règle des «10ans » est de mise. Selon ce précepte, les patients, dont l’espérance de vie est limitée, ont un risque plus important de mourir d’une maladie concomitante, alors que ceux qui survivent au-delà de 10 ans ont un risque plus élevé de décès par progression du cancer de la prostate (Krahn, 2002). Selon Schwartz et ses collaborateurs (2003) les hommes de 70 et 80 ans atteints d’un cancer de la prostate localisé seront simplement surveillés, contrairement aux patients moins âgés auxquels un traitement à visée curative sera plus facilement privilégié. Or, leur étude a permis de mettre en évidence que les groupes de patients soumis à une simple observation auraient dû bénéficier d’un traitement curatif. Un traitement optimal aurait obtenu de meilleurs pronostics. Cette observation attentive a eu seulement comme conséquence des pertes en termes de résultats. Cependant, la fragilité de la personne âgée fait qu’elle est beaucoup plus susceptible de ne pas supporter des traitements dits trop agressifs. Comme nous le montre le Tableau 3 de l’étude de Jani et Hellman (2003) sur les complications après traitement d’un cancer de la prostate, chaque traitement porte son lot d’effets secondaires. Si à cela se rajoute la santé plus ou moins fragile de la personne âgée, les interrogations des oncologues face à la décision thérapeutique deviennent ainsi tout à fait compréhensibles. Ils seraient plus réticents à proposer un traitement agressif aux personnes âgées en raison des risques plus élevés d’effets secondaires à court et à long terme (Waldert et Djavan, 2006). L’équilibre et la décision thérapeutique sont ainsi sujets à controverse et posent pour les oncologues un problème majeur de santé publique. 21 Tableau 3 : Taux moyen de complications pour le traitement de contrôle local d’un cancer de la prostate par A. B Jani et S. Hellman, 2003. Prostatectomie Radiothérapie Curiethérapie Radiothérapie Site à faisceau faisceau externe externe + Curiethérapie Rectum + +++ + ++ +++ ++ + ++ +++ + + + + + +++ +++ Sexuel (impuissance) in aire -Incontinence Rétention Plus le nombre de + est important, plus le taux de complication augmente. Ces effets secondaires, décris dans le Tableau 3, nuisent particulièrement à la qualité de vie au moment du traitement de ces patients. Les traitements d’un cancer de la prostate interrogeant la notion de sexualité chez l’homme induisent des effets secondaires non seulement au niveau médical mais également au niveau psychologique. Quelle que soit la maladie, la prise en charge adaptée est un équilibre entre les avantages et les inconvénients que peut présenter chaque traitement. Plus l’âge des patients est avancé, plus il est nécessaire de penser à une prise en charge globale de la qualité de vie du patient et de son entourage (Kirk, 1998). 1-3-2 Aspects psychologiques 1-3-2-1 Cancer de la prostate et fragilité liée à l’âge Depuis les années 80, le nombre de publications au sujet de la fragilité des personnes âgées a augmenté de façon exponentielle, passant de 36 entre 1986 et 1990 à plus de 1100 entre 2000 et le milieu de l’année 2004, puis à un peu plus de 3000 entre 2004 et aujourd’hui. À ce jour, l’approche la plus cohérente et la plus développée pour aborder le concept de fragilité a été élaborée par Fried et ses collaborateurs (2001). Dans le processus de développement d’un modèle provisoire, l’initiative canadienne sur la fragilité et le vieillissement (Bergman et al., 2004) considère que la fragilité constitue un syndrome* pouvant être identifié et dépisté chez les personnes âgées à l’aide d’une combinaison de 22 caractéristiques, dont les principales sont : un état de faiblesse, une faible endurance, une activité physique réduite, une vitesse de marche lente et une perte de poids involontaire. Le déclin cognitif, ainsi que les symptômes de dépression et l’isolement social, pourraient également faire partie des composantes à prendre en compte. Le vieillissement reste un phénomène hétérogène (Petit et Bouisson, in press). La multiplicité des vieillesses va à l’encontre d’un véritable consensus à propos de la notion de fragilité et continue à donner lieu à controverse (Balducci, 2007). Or, conjointement à l’augmentation de l’espérance de vie, un accroissement des maladies comorbides liées à l’âge est observé (Wymenga, Slaets and Sleijfer, 2001), ce qui est particulièrement vrai pour le cancer (Cancéropôle PACA, 2007). Selon Northouse, Templin et Mood (2001) l’âge aurait un effet direct sur l’évaluation de la maladie, que ce soit au niveau du patient, mais aussi du partenaire de vie. De nombreuses recherches sur le cancer de la prostate ont mis en évidence l’augmentation de l’anxiété et surtout de la dépression au moment du diagnostic et durant les six mois après le traitement choisi (Llorente et al., 2005, Wasan et al., 2005), avec une comorbidité importante de la dépression et des troubles anxieux chez 30 à 50% des patients (Wasan et al., 2005). Nordin, Berglund, Glimelius et Sjöden (2001) ont mis en évidence le rôle prédicteur du niveau d’anxiété et de dépression, au moment du diagnostic, dans les 3 mois suivants. En conséquence, avoir des antécédents dépressifs est un facteur de vulnérabilité de dépression tout au long du traitement. D’autres recherches décrivent les symptômes dépressifs comme de bien meilleurs prédicteurs de l’issue du cancer, tant en ce qui concerne la qualité de vie que le type de traitement (Monahan et al., 2007). Il a également été montré qu’une bonne qualité de vie, notamment au niveau de la dimension physique, était associée à une faible détresse psychologique (Balderson et Towell, 2003). Une étude allemande, menée auprès de 115 patients traités par chirurgie a montré que la douleur était fortement associée à une diminution de la qualité de vie et à la présence de troubles anxieux et dépressifs. Les patients douloureux présentent trois fois plus de troubles anxieux que les autres (31.3% contre 8.6%) (Gerbershagen, et al., 2008). Il a été mis en évidence, en outre, que les familles devaient être prises en compte dans le traitement du cancer de la prostate, notamment au niveau du soutien qu’elles peuvent apporter lors de l annonce du diagnostic (Edwards et Clarke, 2004) ainsi qu’au moment de l’apparition des effets secondaires relatifs aux traitements. En effet, ceux-ci sont susceptibles d’engendrer des troubles sexuels importants pouvant nuire aux relations du couple (Kirschner-hermann et Jakse, 2002, Scott et al., 2004, Krongrad, Litwin, Lai et Lai,1996). D’autres auteurs ont tenté de montrer les liens existants entre les difficultés psychologiques, les problèmes psychophysiologiques (du point de vue de l’insomnie et de la 23 fatigue) et des difficultés sexuelles, au travers de trois modalités de traitement (radiothérapie, curiethérapie et prostatectomie radicale). Un total de 861 hommes a complété une batterie de questionnaires. A travers ces nombreux travaux, se reflètent les liens intimes qu’entretient la dimension physique avec la dimension psychologique. Cela suppose l’importance de prendre en considération la fragilité comme une mesure à part entière de la vulnérabilité, et particulièrement lorsqu’il s’agit des pathologies cancéreuses. Ainsi, pour les professionnels de la santé travaillant auprès des personnes âgées, la difficulté d’une définition précise et opérationnelle de la fragilité tient d’abord aux représentations très négatives qui s’attachent fréquemment à la vieillesse mais aussi au cancer. 1-3-2-2 Le cancer de la prostate face à ses représentations « La maladie et la sénescence donnent le sentiment que le lien qui l’unissait (le patient) aux siens est menacé (...) » (Bellouti et Caron, 2009, p 33). En effet, dans leur recherche phénoménologique auprès de patients en soins palliatifs, âgés de 49 à 81 ans, Bellouti et Caron (2009) ont mis en exergue diverses thématiques liées aux représentations des patients dans les discours à propos de leur maladie : - un besoin d’être considérés dans leurs dimensions humaines, - l’importance des proches et des échanges relationnels, - un vécu de dépendance à l’autre, - un sentiment d’impuissance, - etc. Cette étude montre le rôle que peuvent prendre les représentions que se forgent les patients lorsqu’ils sont confrontés à une maladie grave. Ces représentations mettent également en évidence les besoins, attentes et peurs des patients au cours de cette période difficile. En effet, les représentations, qu’elles soient liées à la vieillesse (fatigue, faiblesse, fragilité, vulnérabilité, incapacité à s'adapter au changement) (Foucart, 2003), ou encore liées au cancer (perte de cheveux, perte de poids, mort, souffrance), marquent, en définitive, une méconnaissance et une réelle angoisse de la part de l’homme de la rue. Le cancer de la prostate interroge d’autant plus qu’il fait partie des maladies touchant directement à la 24 sexualité. De nombreux non-dits apparaissent alors au sein du couple, qui devient vite perturbé par ce cancer. Certaines questions restent actuellement en suspens, notamment de savoir si le couple va, par exemple, pouvoir survivre à une maladie qui le touche jusque dans son intimité la plus profonde. Ou encore, si le patient va plus facilement communiquer avec son ou sa partenaire ou un médecin. Le cancer est une maladie pouvant toucher n’importe quel organe et surtout n’importe qui. A l’image de la démarche du crabe, il prolifère lentement et dévore tout sur son passage. Voilà les représentations qui dominent face à cette maladie (Hoerni et al., 1998). Dans le cadre du cancer de la prostate, qui de par sa nature touche directement le couple, il devient évident que la relation du patient et de sa conjointe va devenir centrale dans la façon dont le patient va faire face au cancer. Le cancer, notamment celui de la prostate, est porteur de fortes connotations négatives. En effet, être atteint d’un cancer revient à être pris dans le cercle infernal des stéréotypes des représentations péjoratives liés à la terreur de la mort, la douleur, dont les effets secondaires touchent plus particulièrement la sexualité et la virilité de l’homme. La relation conjugale est ainsi prise au cœur de ces pensées populaires négatives. Le couple va devoir ajouter à ses problèmes quotidiens, liés aux traitements, ses propres représentations et interrogations mais également celles de son entourage. Tout ceci, sans espérer beaucoup d’aide d’une société qui occulte volontiers la vie sexuelle des personnes âgées et qui met en valeur l’esthétique, l’action et le dynamisme. 25 Chapitre II Couple âgé, coping et cancer de la prostate Le terme de couple a beaucoup évolué au fil du temps. En effet, il est féminin au début du 17 éme siècle, signifiant alors : « mettre deux choses de même espèce ensemble » (Nicot, thrésor de la langue, 1606, cité dans dicofro.org). Cependant, un nouveau sens apparaît dans la 1ére édition du dictionnaire de l’Académie Française de 1694, le mot couple devient alors masculin : « Il se dit aussi de deux personnes unies par amour ou par mariage ». Etymologiquement, le terme de couple dérive du latin « copulo, are, (nom : copula) » (Gaffiot, 1934), qui, à l’origine, désigne tout ce qui sert à attacher, et, par suite, tout ce qui est chaîne, lien... Du sens propre au sens figuré, il est devenu le lien qui unit l’homme et la femme. Lorsque ce lien n’a pas de valeur légale, les termes de liaison ou encore de relation, (du latin « relatio »), sont plus facilement usités. De la notion de couple émanent des obligations que chacun des membres se doivent. En effet, si l’on se réfère au droit législatif du code civil français, livre 1er, Titre V, CHAPITRE VI : « Des devoirs et des droits respectifs des époux », art. 212 : « Les époux se doivent mutuellement respect, fidélité, secours et assistance. ». Dans notre civilisation occidentale, nous avons forgé un point de vue culturel du couple dans lequel la société nous demande de nous engager dans une « assistance », une « stabilité » et une vie « commune ». Ces différents concepts induisent le rôle de chacun visà-vis de l’autre.
35,454
f840bdcb03d74b5818096e457a85059e_2
French-Science-Pile
Open Science
Various open science
2,020
CHAPITRE 8 L’épidémiologique : la base scientifique de la santé publique
None
French
Spoken
4,575
7,842
Murard L., Zylberman P. (1996). L’hygiène dans la République. La santé publique en France, ou l’utopie contrariée (1870-1918). Fayard. Paris. Paicheler G. (1994). Le public face à la menace du sida. ANRS-Cermes. Pollak M. (1988). Les homosexuels et le sida. Sociologie d’une épidémie, Métailié, Leçons de choses. Paris. Setbon M. (1993). Pouvoirs contre sida. De la transfusion sanguine au dépistage : décisions et pratiques en France, Grande-Bretagne et Suède. Seuil. Paris. Sfez L. (ed.). (2001). L’utopie de la santé parfaite. PUF, La Politique éclatée. Paris. Terrenoire G. (1993). Médecine prédictive, l’épreuve de l’expérience : dépistage présymptomatique de la maladie de Huntington. Sciences sociales et santé, 11 (3-4) : 99-122. Torny D. (2001). Un seul cas suffit. Une étude sociologique de l’engagement du futur en biomédecine. Thèse de doctorat en sociologie. École des hautes études en sciences sociales. Paris. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 272 — #308 i i i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 273 — #309 i i SOUS-CHAPITRE 8.4 Force de conviction de la modélisation prévisionnelle épidémiologique dans l’action publique face au risque MICHEL SETBON Introduction Depuis les années 1980, on assiste à un renouvellement conceptuel, politique et social du champ de l’action publique face au risque. D’une part, la « preuve » (quel qu’en soit le degré) épidémiologique est devenue le référentiel pour juger de la nature et de la valeur de multiples phénomènes susceptibles d’être l’objet d’action publique, d’autre part la demande sociale de protection s’est élargie à de nouveaux risques jusque-là peu explorés par cette discipline. L’émergence de ces nouveaux risques à faible incidence ou en relation avec des faibles doses, couplée à l’exigence d’anticipation devenue une règle de la gouvernance moderne, a, en grande partie, rendu inadaptés ou insuffisants les outils classiques de l’épidémiologie. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 274 — #310 i 274 i L’ ÉPIDÉMIOLOGIE HUMAINE La modélisation prévisionnelle épidémiologique représente une alternative dont le statut apparaît aujourd’hui mal défini en termes d’aide à la décision publique. On regroupera ici sous le terme de modèle prévisionnel épidémiologique toute construction intellectuelle qui, à partir d’hypothèses jugées cohérentes avec un corpus de faits observés et de connaissances, fournit une représentation de l’état du monde présent ou futur. Son objet scientifique, la prévision rationnelle, correspond directement au besoin d’une action précoce fondée sur suffisamment de connaissance pour éclairer et guider l’action publique face au risque. Si la modélisation épidémiologique s’est largement développée dans le champ scientifique, on en sait fort peu sur son pouvoir réel de conviction et en conséquence sur les conditions de son usage au service de l’action publique. La force de conviction d’un modèle épidémiologique s’évalue en dernière analyse par son utilisation dans les décisions publiques face au risque. Si, à l’instar de l’épidémiologie en général, les critères scientifiques de la modélisation prévisionnelle épidémiologique (MPE) sont insuffisants à déterminer sa force de conviction, on peut s’interroger sur les conditions qui rendent possible son utilisation dans la décision publique. Deux questions seront abordées ici : à quelles séquences de l’action publique face au risque la modélisation épidémiologique contribue-telle ou est-elle en mesure de contribuer ? Quelles sont les conditions qui rendent possibles son usage dans l’action publique ? Pour éclairer ces questions, deux études de cas seront brièvement exposées : le cas du risque de transmission du nouveau variant de la maladie de Creutzfeldt-Jakob (vMCJ) en transfusion sanguine et celui (propre aux ÉtatsUnis) prédisant la (l’im)possibilité de survenue sur le territoire américain de l’épizootie d’ESB (encéphalopathie spongiforme bovine). À la suite, seront analysés les fondements qui justifient le recours à la modélisation ainsi que ses apports potentiels en relation avec sa force de conviction. 1 Risque de transmission du vMCJ en transfusion sanguine Depuis 1997, la possibilité d’une transmission humaine de l’agent causal de l’ESB est considérée comme un fait scientifique. En 1999, la France recensait 2 cas de vMCJ (3 en 2000, 9 en 2004), diagnostiqués comme cas primaires, c’est-à-dire comme consécutifs à un probable passage de l’agent causal de l’ESB à l’homme. À cette date, aucun cas de contamination secondaire n’avait été rapporté de par le monde, y compris par transfusion sanguine. Néanmoins, quelques indices scientifiques rendaient théoriquement possible une transmission par le sang du vMCJ, essentiellement fondée sur la comparaison avec la MCJ classique. Cette possibilité, bien que considérée comme faible, soulève depuis 1998 la question suivante : qu’est-il possible de faire pour réduire ce « risque », aussi hypothétique soit-il ? i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 275 — #311 i F ORCE DE CONVICTION DE LA MODÉLISATION PRÉVISIONNELLE ÉPIDÉMIOLOGIQUE ... i 275 La décision prise par les États-Unis suivis par le Canada, pays jusqu’ici indemnes d’ESB, d’exclure tous les donneurs de sang ayant séjourné plus de 6 mois dans les Iles Britanniques interpelle directement les autorités sanitaires des pays disposant d’une transfusion sanguine moderne, dont la France. À la lecture des rapports produits par la FDA et par Health Canada (1998), deux conclusions fortes se détachent : d’une part, malgré une absence de preuve directe de la transmission sanguine du vMCJ, ce danger1 est jugé impossible à ignorer ; d’autre part, la mesure retenue pour le prendre en compte, l’exclusion des donneurs de sang qui présentent ce qui est considéré comme un facteur de risque, est déduite d’une modélisation prenant en compte la balance des estimations de la réduction du risque et de celle des bénéfices sacrifiés consécutifs à l’exclusion d’un certain pourcentage des donneurs de sang. Ce qui explique la durée retenue de six mois, qui ne possède aucun fondement épidémiologique, ni physiopathologique. Ce n’est donc pas l’estimation quantitative du risque luimême qui est modélisée, mais la capacité théorique de la mesure d’exclusion à le réduire en fonction de l’exposition de la population des donneurs de sang. Les autorités sanitaires françaises se penchent sur la question en juillet 1999 en désignant un groupe d’expertise qui doit répondre aux trois questions suivantes : – La transmissibilité sanguine de l’agent responsable du vMCJ est-elle possible ? – Quel serait le niveau d’exposition de la population des donneurs de sang français à l’agent ESB ? – Quelles méthodes de réduction du risque de transmission du vMCJ par les produits sanguins pourrait-on mettre en place ? La réponse à la première question, qui se fonde pour l’essentiel sur l’identification d’un marqueur de l’infectiosité dans le tissu lymphoïde, est la suivante : « Il s’agit d’un risque potentiel qu’il convient de prendre en considération par le maintien d’une veille scientifique et épidémiologique attentive et rigoureuse ». À la question posée sur l’exposition de la population française le groupe d’experts, s’appuyant sur la modélisation utilisée aux États-Unis et au Canada reliant la réduction du risque en fonction du pourcentage de donneurs exclus exposés, aboutit à la conclusion suivante : « Quelle que soit l’hypothèse retenue en termes de durée de séjour dans les Iles Britanniques et de pourcentage de viandes anglaise importées, l’impact d’une exclusion des donneurs sur le 1 Danger (hazard) : agent biologique physique ou chimique présent dans un produit ou état de ce produit pouvant entraîner un effet néfaste sur la santé. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 276 — #312 i 276 i L’ ÉPIDÉMIOLOGIE HUMAINE critère de séjour dans les Iles Britanniques serait extrêmement limité et jamais supérieur à 5 % du total de l’exposition » (Afssaps, 2000). Autrement dit, les données du problème français sont différentes des données nord-américaines. En effet, les données d’exposition varient selon les pays, essentiellement du fait de la consommation entre 1980 et 1996 de viandes britanniques importées en France (estimée à près de 10 % de la consommation totale). Sur cette base, la modélisation aboutissait à une réduction très limitée du risque en France : moins de 10 %, alors que, sur la base d’une exclusion supérieure à six mois, les États-Unis et le Canada obtenaient une réduction du risque de près de 90 %. Les experts décident donc de ne pas retenir la mesure. Concernant la troisième question, les mesures appropriées pour réduire le risque, la stratégie proposée est celle d’une réduction du risque par déleucocytation, ou plus précisément d’appauvrissement en leucocytes, des produits sanguins. Elle se fonde sur l’hypothèse d’une infectiosité du sang majoritairement associée aux leucocytes (constatée en matière de MCJ). Pour résumer, l’hypothèse d’une transmission sanguine est considérée comme possible sans preuve directe (référence explicite au principe de précaution) déterminant ainsi le besoin d’une action protectrice ; la forme d’action étant, elle, retenue par modélisation qui prend en compte les bénéfices et les pertes potentielles au niveau de la population concernée. Si le même modèle fondé sur les mêmes hypothèses a été utilisé aussi bien en France qu’outre-Atlantique, le résultat en termes d’action est différent2 . Dans les trois pays, les conclusions sont acceptées par les gestionnaires politico-administratifs qui décident de les mettre en œuvre. Ce n’est qu’en 2004 que plusieurs publications viendront apporter les premiers éléments de preuve de la validité de l’hypothèse d’une transmission sanguine de l’agent infectieux (Pincock, 2004 ; Aguzzi et Glatzel, 2004 ; Lewelyn et al., 2004 ; Peden et al., 2004). 2 Évaluation du risque d’ESB aux États-Unis Alors qu’en Europe l’épidémie d’ESB a été identifiée depuis la fin des années 1980, les autorités sanitaires des États-Unis s’interrogent en 2000 sur la possibilité d’en être atteints à leur tour (Gray et al., 2002). Ce cas est singulier dans la mesure où il ne s’agit pas de s’interroger sur l’incidence de l’ESB dans ce pays, ni de déterminer les mesures capables de la réduire : la question est d’anticiper en termes de probabilité la survenue de l’épidémie sur ce territoire où aucun cas d’ESB n’a été signalé durant 12 années de surveillance, ainsi que de cas 2 Ce n’est qu’un an plus tard, lors d’une nouvelle révision, que sera proposée une mesure d’exclusion pour les donneurs de sang ayant séjourné plus d’un an dans les Iles Britanniques : rapport Afssaps, janvier 2001. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 277 — #313 i F ORCE DE CONVICTION DE LA MODÉLISATION PRÉVISIONNELLE ÉPIDÉMIOLOGIQUE ... i 277 humains de vMCJ. Répondre à cette question est un préalable pour envisager de nouvelles mesures en plus de celles déjà prises. Le phénomène n’étant pas observé, la modélisation reste la seule méthode pour répondre à la question. Pour cela les modélisateurs s’appuient d’une part, sur les connaissances accumulées par les pays atteints, en particulier par le Royaume-Uni, et d’autre part, sur les mesures prises aux États-Unis pour prévenir l’importation et la propagation de l’épizootie. Pour tenter de couvrir les nombreuses alternatives susceptibles de favoriser l’apparition et la propagation de l’ESB, 29 scénarios sont analysés, qui se fondent sur différentes hypothèses portant sur les caractéristiques biologiques de l’ESB, les pratiques de l’industrie d’aliments pour animaux, les techniques d’abattage, etc. Tous les points critiques de l’élevage des bovins sont pris en compte ainsi que ceux concernant la consommation humaine de tissus à risque (cervelle, moelle épinière, etc.). Ainsi, sont pris en compte dans cette modélisation tant les paramètres qui portent sur l’estimation du risque (le nombre d’animaux importés pouvant propager la maladie, le recyclage des carcasses), que l’impact et les défaillances des mesures mises en place pour prévenir l’ESB (essentiellement l’interdiction des farines animales pour les bovins) ainsi que la consommation humaine de tissus infectieux. Les conclusions tirées de cette modélisation sont claires : la probabilité de développement d’une épidémie d’ESB aux États-Unis apparaît quasi nulle, rendant fort peu plausible cette hypothèse, même si un nombre assez conséquent d’animaux infectés par l’ESB était introduit sur le territoire, compte tenu des mesures préventives mises en place. Autrement dit, si la première barrière était franchie (malgré l’interdiction d’importer des ruminants provenant de pays atteint par l’ESB), la seconde, représentée par les mesures mises en place, rendrait quasiment impossible la diffusion de l’épidémie. Néanmoins des mesures de précaution quant à la contamination humaine pourraient être envisagées en écartant de la consommation certains matériaux à risque spécifiés. 3 La modélisation prévisionnelle épidémiologique entre besoin et pertinence Ces deux cas brièvement résumés ont en commun deux points essentiels : à la suite d’une demande publique d’expertise, une modélisation a été produite en l’absence de risque observé et la forme d’action qui en est issue a été acceptée par les gestionnaires politico-administratifs sur cette base. Malgré leur singularité apparente, les deux cas exposés soulèvent la question de la généralisation du recours à la modélisation face au risque, plus précisément des conditions qui la rendent possible ainsi que celle de son degré de pertinence en relation avec i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 278 — #314 i 278 i L’ ÉPIDÉMIOLOGIE HUMAINE sa force de conviction. La nature du problème posé et sa perception profane représentent une première dimension déterminante. Les problèmes que figurent ces deux cas relèvent de la sécurité sanitaire. La nature de ces deux risques, véhiculés par des produits (sang et viande), fait qu’ils relèvent de la responsabilité exclusive et impérative des autorités publiques sanitaires, plus largement de l’État. Le public se trouve confronté à un risque échappant à son contrôle et dont les produits-sources sont soumis à la régulation des autorités en vue d’assurer leur sécurisation. Ce type de risque est foncièrement différent de ceux qui sont construits par les comportements individuels et pour lesquels l’exercice de la responsabilité politique est pour l’essentiel indirect, de l’ordre de l’information ou de l’incitation, tant sur les facteurs de risque que sur les moyens pour réduire le risque. Quand de plus les effets, réels ou supposés, sont effrayants (la MCJ est mortelle et son tableau clinique redoutable), reportés dans le temps (durée d’incubation estimée entre 15 et 25 ans) et susceptibles de concerner l’ensemble de la population, la responsabilité des pouvoirs publics est de les anticiper aussitôt que cela est jugé possible. Cette contrainte impérieuse rend caduque le modèle préventif fondé sur les résultats de l’observation rétrospective des effets morbides ou mortels (incluant les études cas-témoins) ou prospective (cohortes), et sur la démonstration épidémiologique et/ou biologique d’une relation de causalité avec le produit-source. Le besoin d’action devient dans de telles conditions un impératif d’ordre social, politique et économique, quelle que soit par ailleurs sa dimension sanitaire et l’incertitude qui la caractérise. L’action ne peut plus être conditionnée à la certitude de causalité, du fait que l’absence d’intervention ne peut être justifiée sur cette base : aussi, prendre des mesures qui s’avéreront inutiles à terme est considéré comme bien plus acceptable que d’avoir à assumer les conséquences négatives de l’inaction. L’émergence et le succès sociopolitique du principe de précaution, aussi discutable soit-il dans ses applications, expriment clairement la réalité d’une demande sociale de protection à laquelle les experts scientifiques ne peuvent rester insensibles. Ce sont bien les contraintes d’ordre sociopolitique et aussi économique (les conséquences de la perception du risque par le public en tant que consommateur de viande bovine dans le cas de l’ESB) qui ont rendu possible la transition de l’exigence de démonstration causale au critère de « possibilité » sans causalité, ni même d’effets statistiques. S’y ajoutent des conditions contextuelles qui ne sont pas propres au risque lui-même ou à la connaissance disponible. Concernant le cas du danger de transmission sanguine du vMCJ, la seconde dimension contextuelle qui permet de dépasser l’absence d’observation est qu’il s’agit d’un risque affectant la transfusion sanguine, secteur hypersensible du système de santé : l’hypothèse de la transmission est retenue malgré la fragilité des preuves disponibles, tant par les experts que par les gestionnaires. Cette posture i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 279 — #315 i F ORCE DE CONVICTION DE LA MODÉLISATION PRÉVISIONNELLE ÉPIDÉMIOLOGIQUE ... i 279 s’impose d’autant plus qu’elle est internationale, la France ne faisait que suivre l’exemple des États-Unis et du Canada. Cette unanimité tient à la capacité de la décision à satisfaire à la triple menace, sanitaire, politique et judiciaire propre à ce domaine dans le cas où la transmission sanguine du vMCJ s’avérerait réelle. L’important est que la mise en évidence du risque (causalité et probabilité) n’est plus un préalable à l’action. Dans le second cas, celui du risque d’ESB aux ÉtatsUnis, c’est également le souci d’anticiper une probable catastrophe économique et politique qui justifie la démarche. Dès lors, débarrassé de l’épineuse question de la démonstration scientifique du risque, le recours à la modélisation face à ce qui correspond jusqu’ici à un danger devient à la fois pertinent et incontournable. La modélisation permet ainsi de répondre de façon rationnelle, transparente et scientifiquement fondée à ce besoin d’action (cas de la transmission sanguine du vMCJ) ou de renforcement de l’action (cas de l’ESB aux États-Unis). Dans les deux cas, la modélisation permet de retenir les actions les mieux adaptées au contexte propre au risque, c’est-à-dire qui tienne compte des données spécifiques du pays : exposition de la population, pratiques sociales en relation avec le produit-source, process industriel, modes de circulation des produits, etc. Comme la causalité n’est plus discutée, ni même l’estimation quantifiée du risque s’il était réel, l’apport de la modélisation est d’établir autant de scénarios possibles de mesures anticipatrices pour choisir le plus souhaitable. Il va de soi que la modélisation n’aurait plus d’intérêt si un consensus se dégageait pour supprimer le produit ou l’activité en question, ce qui a été considéré comme hors de question pour les produits en jeu dans les deux cas. En fait, la modélisation permet d’opérer un retour au modèle préventif qui prend en compte, dans le choix du mode d’action, les pertes de bénéfices et les réductions du risque. Ainsi, l’exclusion des donneurs de sang ayant séjourné plus de 6 mois dans les Iles Britanniques s’avère une action rationnelle aux États-Unis et au Canada, mais pas en France où son coût (en sang) est jugé trop élevé pour des bénéfices réduits ; protéger les receveurs de produits sanguins autant que possible conduisant à choisir la déleucocytation. Dans le second cas, la modélisation faite aux États-Unis permet de rendre inutile de nouvelles mesures face à un développement jugé improbable de l’ESB dans ce pays. 4 Le champ de la modélisation en relation avec sa force de conviction Dans une perspective scientifique, les différentes séquences qui composent le cadre de l’analyse du risque peuvent être en théorie l’objet de modélisation : i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 280 — #316 i 280 i L’ ÉPIDÉMIOLOGIE HUMAINE estimation du risque, évaluation, décision et choix des modalités d’action. Il ne semble pas en être de même dans le champ de l’action publique. Il ne s’agit pas ici de traiter de la validité scientifique des modèles en fonction de leur champ d’application mais de cerner le champ de la modélisation en relation avec sa force de conviction potentielle sur les gestionnaires du risque. Or, au regard de leur force de conviction, les critères de qualité scientifique des modèles prévisionnels élaborés face au risque sont différents de ceux qui assurent leur pertinence opérationnelle. L’indicateur rendant compte de la force de conviction d’un modèle est représenté par son impact sur l’action retenue (ou l’inaction) et non pas simplement par l’adhésion intellectuelle qu’il suscite. L’usage d’un modèle prévisionnel épidémiologique est déterminé par le besoin d’action mais le modèle ne détermine qu’exceptionnellement l’action : il fournit une ou des réponses à un besoin construit sur d’autres bases. En tant que démarche scientifique au service de l’action, la modélisation s’inscrit bien dans le champ de l’expertise. Il est rare qu’une action publique lourde de conséquences incertaines puisse être le seul fait d’une modélisation, aussi reconnue soit-elle dans le champ scientifique. Le processus est plutôt le suivant : il faut qu’un problème émerge dans l’espace public, qu’il soit perçu (par le public comme par les pouvoirs publics) comme suffisamment important pour être inscrit sur l’agenda des gestionnaires du risque et que soit posée en conséquence la question de l’action protectrice. C’est bien parce que le problème est à la fois présent et qu’il soulève la question de l’action que le modèle devient potentiellement pertinent. Sa pertinence vient d’abord de sa capacité à s’inscrire dans les valeurs dominantes qui encadrent la gestion du risque dans la société : le modèle, en tant que proposition d’action, ne remet pas en cause l’objectif de protection de la population, il ne vient qu’en sélectionner les modalités. Autrement dit, sa rationalité mathématique (exposition de la population, facteurs de risque quantifiés, impact réducteur des mesures) est dépendante de la rationalité politique qui justifie, dans le cas de la transmission sanguine du vMCJ, le recours à la précaution. Sa force de conviction vient de sa capacité à rendre compte de la rationalité sanitaire et des conséquences de l’action choisie : réduire le risque le mieux possible sans pour autant sacrifier des ressources sanitaires rares (le sang). À l’inverse, un modèle élaboré en vue de produire une estimation du risque ne parvient que très rarement à convaincre de sa pertinence au point de déterminer l’action conséquente ou de modifier des actions établies sur la base d’estimations supérieures. Au cours des dernières années, le risque de vMCJ a été estimé à plusieurs reprises et les résultats publiés dans les meilleures revues scientifiques internationales ; ces estimations de l’incidence ont progressivement évolué vers de nouvelles, réduites de façon massive. Or, leur impact direct sur les i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 281 — #317 i F ORCE DE CONVICTION DE LA MODÉLISATION PRÉVISIONNELLE ÉPIDÉMIOLOGIQUE ... i 281 deux décisions majeures prises en 2000 s’est avéré imperceptible : l’interdiction totale des farines animales et le dépistage systématique des bovins âgés de plus de 26 mois destinés à la consommation. Est-ce pour autant que ces modèles ne sont pas crédibles ? La réponse est probablement autre : les modèles d’estimation d’incidence ne sont pas pertinents pour l’action parce que l’incidence observée ne l’est pas également. Si le critère quantitatif n’est pas déterminant pour engager l’action, il l’est encore moins pour réviser à la baisse un haut niveau de protection lorsqu’il subsiste un risque résiduel, aussi bas soit-il. 5 Vers un développement nécessaire et problématique de la modélisation épidémiologique La modélisation n’a pas pour vocation d’entrer en concurrence directe avec les méthodes épidémiologiques classiques, qu’elles soient observationnelles, analytiques ou quasi expérimentales. Elle représente un outil supplémentaire qui devrait être utilisable dans l’action publique face à certains risques, sur certaines séquences du processus d’analyse du risque, pour lesquelles ces méthodes sont impuissantes ou inadaptées. Mais son usage au service de la gestion du risque ne peut être ni systématique ni uniforme : il dépend de la nature du risque et du contexte sociopolitique dans lequel il s’inscrit. Son utilisation potentielle est sélective, en rapport avec certaines séquences ou questions du processus d’analyse du risque et ne peut aboutir sans interactions avec les gestionnaires du risque. Son développement à venir reste conditionné aux réponses qui seront apportées à plusieurs questions : – Quel est son champ potentiel d’utilisation ? – Quels objectifs accessibles peuvent être visés par la modélisation ? – Quels sont les critères ou les conditions qui rendent son utilisation envisageable ? – Comment sont perçus les modèles par les gestionnaires publics ? – De quelle nature sont les réticences ou les freins à son utilisation dans l’action publique ? – Comment développer la production de modèles épidémiologiques dans la perspective de leur utilisation ? À ces questions il n’existe pas de réponses théoriques globales, mais tirées de l’observation et de l’analyse empirique. Cela suppose des recherches capables de rendre compte de tous les paramètres évoqués en testant leur potentiel de généralisation en fonction de différentes catégories de risques. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 282 — #318 i 282 i L’ ÉPIDÉMIOLOGIE HUMAINE Conclusion Le développement de la modélisation épidémiologique répond pour partie à l’évolution récente constatée dans les pays démocratiques développés confrontés à certains risques émergents inobservables, diffus et inquiétants. Cette tendance lourde s’explique par l’émergence d’une demande sociale d’action publique de plus en plus précoce qui se heurte à la fragilité de la connaissance disponible pour en déterminer tant le besoin que les formes concrètes. Le succès du principe de précaution, dont la nature est politique et non pas scientifique, trouve dans la modélisation un moyen d’en rationaliser l’application. L’expérience récente (l’ESB et son risque humain de vMCJ, les OGM) indique que le besoin d’action peut coexister avec une connaissance ténue, tant en termes quantitatifs qu’en termes de causalité. Si l’on peut s’interroger sur la robustesse d’une expertise produite en réponse à une demande des autorités publiques dans un contexte cognitif fragile, la question centrale reste celle de sa pertinence et de sa qualité scientifique. La pertinence de la modélisation prévisionnelle épidémiologique se fonde sur son adéquation, d’une part au problème tel qu’il se pose à un moment donné, d’autre part à la question qu’elle prétend éclairer. Sa qualité scientifique se juge dans la cohérence des hypothèses en rapport avec les (rares) données disponibles et sur la transparence du cheminement qui en assure la reproductibilité. Néanmoins, sa force de conviction n’est pas simplement en relation linéaire avec sa qualité scientifique, du fait que le modèle acquiert une dimension décisionnelle quand il s’insère dans le processus d’expertise publique, tout comme n’importe quelle connaissance, épidémiologique ou autre. Il est vraisemblable que l’utilisation de modèles épidémiologiques par les gestionnaires du risque est aléatoire et inconnue dans ses déterminants. La recherche de ses conditions d’usage et des réticences qui l’accompagnent devrait permettre de faire communiquer deux univers fondés sur des rationalités différentes : la science et le politique, réunis autour de l’expertise. Comprendre comment ces acteurs ponctuellement interdépendants construisent leurs produits, les uns les modèles, les autres les décisions, apparaît comme l’une des conditions pour rendre compte des critères qui structurent l’offre et la demande de modèles, préalable à une harmonisation plus féconde. Avancer dans cette direction implique de développer des recherches sur la modélisation épidémiologique associant plusieurs disciplines (épidémiologie, sciences biomédicales, sociologie, économie), ce qui suppose une prise de conscience sur leur nécessité. Bibliographie Afssaps, Rapport de synthèse (février 2000). Révision des mesures de réduction du risque de transmissions des ESST par les produits sanguins. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 283 — #319 i F ORCE DE CONVICTION DE LA MODÉLISATION PRÉVISIONNELLE ÉPIDÉMIOLOGIQUE ... i 283 Aguzzi A., Glatzel M. (2004). vCJD tissue distribution and transmission by transfusion-a worst-case scenario coming true ? Lancet, 7 : 363 (9407) : 411-2. Gray G. et al. (2002). Harvard Center for Risk Analysis. Evaluating the risk of bovine spongiform encephalopathy in the United States, Risk in Perspective. Lewelyn CA., Hewitt PE., Knight RS., Amae K., Cousens S., Mackenzie J., Will RG. (2004). Possible transmission of variant Creutzfeldt-Jakob disease by blood transfusion. Lancet, 363 (9407) : 417-21. Peden AH., Head MW., Ritchie DL., Bell JE., Ironside JW. (2004). Preclinical vCJD after blood transfusion in a PRNP codon 129 heterozygous patient. Lancet, 7 : 364 (9433) : 527-9. Pincock S. (2004). Patient’s death from vCJD may be linked to blood transfusion. Committee to discuss need for further precautions to prevent possible vCJD transmission through blood. Lancet, 3 : 363 (9402) : 43. i i i i i i “epidemiologie” — 2006/5/11 — 9:29 — page 284 — #320 i i i i i i.
50,595
64/hal.inrae.fr-hal-03155803-document.txt_3
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,291
14,364
VI.3.3 Charges polluantes appliquées sur les bassins biologiques La charge polluante a été mesurée par des prélèvements dans le pot de collecte. La charge réellement appliquée sur les bassins biologiques peut être légèrement différente à cause des abattements de pollution au niveau des tamis et dans le bassin tampon, et des retours en tête par le poste toutes eaux. Afin d'estimer si un abattement significatif de pollution pouvait être réalisé par le bassin tampon, un prélèvement ponctuel a été réalisé par l'exploitant (le 8/3/11) après agitation par l'hydroéjecteur. L'ensemble des résultats d'analyses est placé dans le tableau 41 en annexe. La comparaison de l'analyse de l'échantillon moyen précédent (7/3/11) et de ce prélèvement ponctuel indique que les concentrations dans le bassin tampon sont inférieures d'environ 10% à celles de l'échantillon d'entrée pour les paramètres a priori conservatifs tels que NTK et Pt. Cette différence est attribuable au décalage entre les 2 échantillons. On note une différence supérieure sur la DBO5 et les MES (30-35%) ce qui pourrait indiquer une perte par biodégradation ou dépôts. Toutefois le fait que la DCO du bassin tampon soit supérieure à celle de l'entrée remet en cause cette hypothèse et empêche de conclure clairement. On peut par contre conclure à l'absence de boues dans le bassin tampon : la biomasse présente est donc limitée à celle apportée avec les eaux usées, et ne devrait pas engendrer des abattements conséquents dans ce bassin. Dans un premier temps, au regard des faibles concentrations en MES du bassin tampon et des temps de séjours des effluents dans ce bassin, on fera l'hypothèse que la charge admise sur les 53 bassins biologiques correspond à celle admise en entrée de station, moyennée sur plusieurs jours Lors du prochain suivi, il sera nécessaire d'estimer de façon plus précise la charge admise sur les bassins biologiques en installant un préleveur et/ou un capteur dans le bassin tampon. VI.3.4 Charges volumiques appliquées Les charges volumiques ont été calculées à partir des débits journaliers entrée station, du volume des bassins biologiques ou du volume de bassin aérés (2 bassins biologiques + 3 compartiments membranaires). A titre de comparaison les charges volumiques ont également été calculées avec le paramètre DCO. dimensionnement 2 bassins biologiques (période de pointe) : 0,381 kgDBO5/m3.j dimensionnement 2 bassins biologiques (période creuse) : 0,022 kgDBO5/m3.j Charge volumique appliquée sur les deux bassins biologiques : kgDBO5/m3/j Charge volumique appliquée sur les bassins aérés : kgDBO5/m3/j Charge volumique appliquée sur les deux bassins biologiques : kgDCO/m3/j Charge volumique appliquée sur les bassins aérés : kgDCO/m3/j 0.4 Charge volumique (kgDBO5/m3.j & kgDCO/m3.j) 0.35 0.3 Loïra 0.25 LDE31 0.2 0.15 0.1 0.05 0 13/02 20/02 27/02 06/03 13/03 20/03 27/03 03/04 10/04 figure 20 : Evolution de la charge volumique au cours du temps La société Loïra a prévu un dimensionnement en période de pointe de 0,381 kgDBO5/(m3.j) de bassin biologique. La figure 20 indique que les charges volumiques sont très faibles, entre 0,005 et 0,1 kgDBO5/(m3.j). Par exemple elles sont en moyenne 5 fois inférieures à la valeur de dimensionnement au plus fort de la période de pointe (vacances scolaires). VI.3.5 Charges massiques appliquées La charge massique appliquée sur l'ensemble des bassins aérés a été calculée à partir de la charge polluante en entrée de station, du volume réel des bassins aérés, des résultats d'analyses des concentrations en MES des boues pour les prélèvements effectués par le Cemagref et des données du capteur de MES placé dans le bassin biologique n°2 pour les prélèvements effectués par Loïra et le LDE31. La concentration en boue est supposée homogène dans tous les bassins. La hauteur moyenne de boue observée prise en compte pour ces calculs est de 5,44 m. Le volume total de bassin aéré est donc de 544 m3 (468 m3 pour les deux bassins biologiques et 76 m3 pour les trois compartiments membranaires). Si l'on prend 54 en compte le compartiment membranaire n°4 (29 m3 supplémentaires), les résultats obtenus sont minorés de 0,002 kgDBO5/(kgMVS.j), ce qui ne change rien aux interprétations. La société Loïra a calculé la charge massique nominale en ne tenant compte que des deux bassins biologiques (soit 2 x 237 m3, comme l'indique le tableau 4). La charge massique de dimensionnement prévue pour la période de pointe est de 0,054 kgDBO5/(kgMVS.j) (Loïra 2010d). La figure 21 indique l'évolution de la charge massique au cours du temps, selon les deux modes de calculs. Son comportement est très différent de la charge volumique, puisque les charges mais aussi la concentration en boue sont toutes deux inférieures aux hypothèses de dimensionnement. La charge massique moyenne pendant la période de pointe en vacances scolaires est équivalente à la valeur de dimensionnement, avec ponctuellement des dépassements d'ampleur limitée. Par contre à partir de mi mars la STEP fonctionne en souscharge très prononcée, expliquant les déf culations observées (VI.3.12). 55 250 Temps de sejour hydraulique sur la station (j) Débit admis en entrée de station (m3/j) Date echantillons moyens journaliers Temps de sejour hydraulique sur la station (j) Débit admis en entrée de station (m3/j) Date echantillons moyens journaliers 200 35 180 200 140 150 120 100 100 80 60 50 40 Temps de séjour hydraulique (j) 160 Débit (m3/j) Temps de séjour hydraulique (j) 180 200 30 160 25 140 120 20 100 15 80 60 10 40 5 20 20 0 0 23/01 01/02 10/02 19/02 28/02 09/03 18/03 27/03 05/04 14/04 23/04 02/05 11/05 0 23/01 0 01/02 10/02 19/02 28/02 09/03 18/03 27/03 figure 22 : Evolution des temps de séjour sur l'ensemble des bassins (agrandissement de la période de pointe à droite) VI.3.7 Evolution du pH des effluents La vitesse de nitrification est optimale dans une gamme de pH comprise entre 7,2 et 8,5. Un pH un peu plus acide (inférieur à 6,5) ou un peu plus basique peut la ralentir, bien que les bactéries puissent s'adapter à ces conditions sur le long terme. En deçà d'un pH de 6 cependant, la nitrification est en principe complètement inhibée ((FNDAE et al. 2002)). Les seuils d'alerte et de garantie mis en place par Loïra concernant le pH de l'effluent de sortie sont de 6,0 et 8,5. pH échantillon moyen de sortie pH Bassin BIO1 pH mini (sortie) : valeurs garanties Loïra N-NH4 (sortie station) N-NO3 (sortie station) pH Bassin BIO2 PH Bassin Tampon (relevé sur site) pH maxi (sortie) : valeurs garanties Loïra N-NO2 sortie station*10 80 9 60 50 pH 7 40 6 LDE31 30 20 5 NH4, NO3 et NO2*10 (mgN/L) 70 8 10 4 21/02 0 28/02 07/03 14/03 21/03 28/03 04/04 11/04 18/04 25/04 02/05 09/05 figure 23 : Evolution du pH dans la STEP et de la concentration de l'échantillon moyen journalier de sortie station (NH4, NO2) L'évolution des pH observés est reportée sur la figure 23. Les échantillons moyens d'entrée ont un pH fluctuant de 7,3 à 7,7. Une acidification importante est observée entre l'entrée et la sortie : elle est causée par la nitrification dans les réacteurs et l'injection de chlorure ferrique, qui sont 2 processus consommateurs d'alcalinité. De plus le pouvoir tampon des effluents est Cemagref, Département Ecotechnologies, Unité REBX Bordeaux 56 particulièrement faible, cf. V.4.1. VI.3.8 Evolution de l'oxygène dissous dans les bassins L'exploitant a relevé chaque jour de présence une valeur ponctuelle (généralement entre 8h00 et 9h00) de concentration en oxygène dissous dans chaque bassin biologique. Si l'on considère que ces valeurs sont assez représentatives de la journée entière (figure 24), globalement les concentrations en oxygène dissous des deux bassins biologiques fluctuent de 0 à 7,7 mgO2/L dans le bassin biologique n°1 et de 0,7 à 7,8 dans le bassin biologique n°2. La marche du surpresseur des bassins biologiques était asservie à la moyenne des concentrations d'oxygène dissous des deux bassins biologiques, avec un seuil bas de 0,5 et un seuil haut de 3 mgO2/L. En réalité le surpresseur n'a pas fonctionné la plupart du temps, indiquant que le seuil bas déclenchant la marche du surpresseur n'a quasiment jamais été atteint. La seule période de fonctionnement de l'aération s'étend du 28/2 au 11/3, avec un temps de marche très réduit (maximum de 1,5 h/j). Cette période correspond à l'admission de charges élevées (vacances scolaires). La présence d'oxygène dans les bassins biologiques en l'absence de marche du surpresseur indique que l'oxygène apporté par l'aération des 3 compartiments membranaires est suffisante pour couvrir toute la demande en oxygène, sauf pendant la période de pointe maximale où le surpresseur des bassins biologique a fonctionné en appoint. Une période critique est le 29, 30/3 et 4/4 avec des concentrations nulles dans le bassin biologique n°1, alors qu'elles fluctuaient entre 4,3 et 5,9 mgO2/L dans le bassin biologique n°2. La moyenne des 2 concentrations étant supérieure à 0,5 mg/L, le surpresseur ne s'est pas mis en . La charge polluante était assez faible à cette période, avec une répartition supposée identique entre les deux bassins. Les concentrations nulles en O2 dans le réacteur n°1 ne sont donc pas dues à une demande en oxygène élevée. Par contre l'exploitant précise que de « mauvaises odeurs » se dégagent du bassin n°1 lorsqu'il remet son agitateur en fonctionnement. Sachant que la concentration en boue à cette période était au maximum (2,1 gMES/L), et que l'indice de boue s'est également nettement amélioré au cours du temps jusqu'à atteindre une valeur de 80 mL/gMES, on peut émettre l'hypothèse que l'homogénéisation des boues est mauvaise en l'absence d'agitation dans le bassin n°1 et qu'il y a des zones de dépôts non oxygénées avec des phénomènes anoxies (dénitrification) et même anaérobies (fermentation). Charge admise en entrée de station (kgDCO/j) Charge admise en entrée de station (kgNTK/j) Indice de boue : biologique 2 (mL/gMES) Biologique 2 (mgO2/L) Charge admise en entrée de station (kgDBO5/j) Volume sortie bassin tampon (m3/j) Biologique 1 (mgO2/L) Biologique 2 (gMES/L) 9 8 250 7 200 6 5 150 4 100 3 2 50 Oxygène dissous (mgO2/L) & Concentration en boue (gMES/L) Charges admises en entrée de station (kg/j), indice de boue (mL/gMES) et Débit (m3/j) 300 1 0 0 23/01 01/02 10/02 19/02 28/02 09/03 18/03 27/03 05/04 14/04 23/04 02/05 11/05 figure 24 : Evolution de l'oxygène dissous dans les bassins biologiques VI.3.9 Production de boue Aucune extraction de boue n'a eu lieu sur l'installation. L'évolution de la masse totale de boue de l'installation correspond donc directement à la production de boue. Si l'on interpole la concentration d'entrée entre deux analyses hebdomadaires (avec une très grande incertitude, cf. V.3.1) afin d'obtenir les charges, on constate que la production de boue (biologique + physicochimique) observée selon les concentrations corrigées du MESmètre est nettement inférieure à la production biologique théorique seule, quel que soit le mode de calcul utilisé. La formule de calcul de la production de boue biologique (exprimée en kg/j) utilisée par la société Loïra pour cette installation est (0,83 x (MES entrée (kg/j) + DBO5 entrée (kg/j)) / 2 (Loïra 2010d). Globalement, au cours de la période de pointe suivie (22/2 au 30/3/11), la production de boue totale (biologique + physicochimique) observée est estimée à 0,14 kgMES/kgDCOéliminée comme 'indique la figure 47 en annexe. Cette production de boue est très faible. Les explications possibles sont les suivantes : 1. la masse de boue totale calculée à partir des concentrations en MES mesurées dans le bassin n°2 est sous-estimée à cause du mauvais mélange ; 2. la charge entrante estimée par interpolation sur les concentrations d'entrée sont surestimées ; 3. la production de boue est effectivement très faible à cause d'un âge de boue extrêmement long (VI.3.10). Pour approfondir le point 1, on a calculé la production de boue exprimée par rapport au débit admis, qui est la seule donnée dont on dispose quotidiennement. Malheureusement, le débit ne reflète pas bien la charge admise non plus, puisque les concentrations ont fortement évolué au cours du temps (cf. V.3.1). VI.3.10 Age de boue En l'absence d'extractions il est impossible d'utiliser la formule de calcul classique de l'âge de boue (division par zéro). On peut toutefois utiliser une approche fondée sur la vraie notion d'âge : on peut considérer qu'en l'absence d'extraction, la boue vieillit approximativement d'un jour chaque jour. L'âge de boue initial des boues d'ensemencement est inconnu, mais elles provenaient d'une STEP (Bagnères-de-Luchon) fonctionnant dans le domaine de la faible charge massique (cf. V.1), donc il peut être estimé entre 15 et 40 jours le 25/11/2011. L'âge de boue de la STEP de Gouaux de Larboust peut donc être estimé à environ 105 jours le 10/2/2011 (début du suivi) et à environ 150 jours le 31/3/2011. VI.3.11 Evolution de l'indice de boue L'indice de boue des boues d'ensemencement était mauvais, supérieur à 250 mL/gMES au 26/11/2010 (source exploitant STEP de Bagnères-de-Luchon). L'indice de boue à la STEP de Gouaux de Larboust s'est maintenu à ces valeurs jusqu'au 22/2. Il s'est ensuite progressivement amélioré pour atteindre une valeur de 65 mL/g début avril (figure 46 en annexe). La disparition des organismes filamenteux ainsi que l'ajout de chlorure ferrique expliquent cette évolution (VI.3.12). VI.3.12 Observations microscopiques des échantillons Trois observations microscopiques (non prévues dans le protocole initial) ont été réalisées. Les deux observations initiales (1/3 et 8/3) ont été réalisées afin de déterminer la cause des mauvais indices de boue du début du suivi (figure 46 en annexe). La dernière observation (6/4) a été réalisée pour connaître l'état biologique de la boue en fin de période de pointe et déterminer les causes d'amélioration de l'indice de boue. La microfaune présente confirme le fonctionnement de cette installation dans le domaine de la faible charge massique (aération prolongée) avec des âges de boue élevés, et une présence permanente d'oxygène dissous. Les mauvais indices de boue (184 mL/g le 1/3) sont dus à la présence de bactéries filamenteuses (Type 0092 très dominant et Microthrix parvicella dominant) qui ouvrent les flocs (photo 4 en annexe). De plus, l'évolution de la microfaune entre le 1/3 et le 8/3/11 indique une amélioration de la qualité du traitement du carbone (confirmé par la diminution progressive de la DCO en sortie). La dernière observation des boues contenues dans le bassin biologique n° 2 effectuée le 6/4/11 indique clairement une boue recevant une charge polluante très faible entrainant une défloculation (photo 5 en annexe, VI.3.5), et un excès d'oxygène dissous. De plus, un changement notable est la disparition quasi-totale des bactéries filamenteuses de ces boues, expliquant la nette amélioration de l'indice de boue (65 mL/gMES). Les effluents contenus dans le bassin tampon le 8/3/11 ont été observés. Ce bassin contient un effluent frais (pas d'odeur décelée liée à des fermentations) mais avec une odeur forte d'urine, 59 confirm les fortes concentrations d'azote retrouvées dans l'échantillon moyen d'entrée à cette époque. Cet effluent est constitué de très peu de flocs (confirmant la concentration en boue de 0,3 gMES/L), mais il est très chargé en bactéries libres. Aucune bactérie filamenteuse n'a été observée dans ce bassin tampon. VI.3.13 Evolution de la perméabilité et du colmatage des membranes Les phases de relaxation ont été fixées à 2 minutes toutes les 10 minutes de fonctionnement durant l'ensemble du suivi (III.2.3.2.4.1). Les seuls éléments disponibles actuellement concernant le suivi de la filtration sont les relevés manuels réalisés par l'exploitant (1 fois par jour, lors de ses jours de présence) des niveaux d'eau de la cuve « TMP », des bassins biologiques et des compartiments membranaires. La figure 25 reprend l'ensemble de ces relevés. Les niveaux relevés dans les bassins biologiques et les compartiments membranaires sont très proches, l'ensemble des bassins étant en équilibre. Des seuils d'alarmes sont fixés à la supervision afin de détecter des problèmes éventuels concernant ces niveaux. Nous constatons une sous-estimation du niveau du compartiment membranaire n°3 par rapport aux deux autres compartiments (différence d'un centimètre), provenant d'un décalage des capteurs de niveau, ce qui est aussi le cas entre les deux bassins biologiques (décalage de 3 cm). Ces décalages n'influent pas sur les asservissements mis en place. Les pics de débits en sortie de bassin tampon n'ont pas engendré de retour vers le poste toutes eaux de la liqueur mixte des compartiments membranaires (trop plein fixé à 6 m). 5.65 200 5.6 180 5.55 160 140 Niveau (m) 5.5 120 5.45 100 5.4 80 5.35 60 5.3 40 5.25 20 5.2 23/01 01/02 10/02 19/02 28/02 09/03 18/03 27/03 05/04 14/04 23/04 02/05 11/05 Débit sortie bassin tampon (m3/j) Niveau BIO1 : LIT 401 (m) Niveau BIO2 : LIT 402 (m) Niveau CM1 : LIT 501 (m) Niveau CM2 : LIT 502 (m) Niveau CM3 : LIT 503 (m) Niveau Cuve TMP : LIT 505 (m) Volume calculé extrait du bassin tampon par les trois pompes confondues (m3/j) 0 figure 25 : Evolution des niveaux d'eau dans les réacteurs biologiques, les compartiments membranaires et la cuve « TMP » 60 VI.3.13.1 Perméabilité La surface membranaire installée dans les trois compartiments membranaires sont de 1386 m2, la durée de filtration journalière est de 18,9 heures (tableau 6). La figure 26 indique l'évolution des flux au cours du suivi. Le débit horaire moyen sortie bassin tampon (comprenant le débit d'entrée, les retours des eaux industrielles utilisées pour le nettoyage du tamis rotatif et les retours du poste toutes eaux) estimé par les temps de fonctionnement des pompes et leur débit nominal durant les vacances scolaires du 12/2 au 13/3/11 est de 110,2 m3/j, le débit de sortie de la station sur cette même période est de 88,1 m3/j. Le flux correspondant est donc très faible, avec un flux brut de 4,2 L/m2.h (flux net de 3,4 L/m2.h), alors que cette installation a été dimensionnée pour un flux brut de 17,1 L/m2.h (flux net de 13,5 L/m2.h) en période de pointe (tableau 6). VI.3.13.2 Colmatage Suivant la différence de niveau relevée entre la moyenne des niveaux dans les bassins biologiques et la cuve « TMP », différents servissements ont été mis en place (III.2.3.2.4.4) comme l'indique le tableau 26. tableau 26 : Seuils de suivi du colmatage Niveau normal (membrane propre) Différence de niveau entre la moyenne des hauteurs bassins biologiques et la cuve « TMP » (m) Niveau normal (fonction de la charge) / / 0,15 0,25 Début Colmatage Seuil 1 : alarme déclenchée 0,40 Mise en place de lavage Seuil 2 : alarme déclenchée + lavage demandé 0,55 Arrêt de la filtration Seuil 3 : Vanne de régulation fermée + pompes de relèvement bassin tampon arrêtées 0,8 Les différences de niveau constatées (figure 26 ) indi quent l' absen ce de colmatage des membranes. 61 0.8 10 0.7 9 8 0.6 7 0.5 6 0.4 5 0.3 4 Flux (LMH) Différence niveau (moyenne niveau Bassins biologiques - niveau Cuve TMP) Différence niveau normal Différence niveau fonction de la charge Différence niveau début colmatage Différence niveau colmatage donc lavage Différence niveau fermeture vanne : arret filtration Diffférence niveau entre bassins biologiques et cuve TMP Flux net (LMH) Flux brut (LMH) 3 0.2 2 0.1 1 0 0 23/01 01/02 10/02 19/02 28/02 09/03 18/03 27/03 05/04 14/04 23/04 02/05 11/05 figure 26 : Evolution des différences de niveaux entre les bassins biologiques et la cuve « TMP » et évolution des flux brut et net VI.3.13.3 Gestion des lavages chimiques Aucun lavage chimique n'a été réalisé entre la mise en route de la STEP et la fin de la période de l'étude (avril). Des essais de lavage chimique ont été réalisés à l'initiative du fournisseur de membrane (Alpha Laval) et en présence du constructeur (Loïra) les 19 et 20 juillet 2011. A cause de divers défauts de l'installation et des automatismes, les lavages (hypochlorite et acide) ont été réalisés en mode manuel et uniquement sur les compartiments membranaires n°1 et n°2. Le fournisseur a fourni des recommandations à l'exploitant et au constructeur pour la gestion de la filtration et des nettoyages chimiques. Il recommande entre autres d'effectuer des lavages tous les 2 mois, même en l'absence de signes de colmatage. VI.4 EVALUATION DES COUTS D'EXPLOITATION VI.4.1 Consommation électrique Les consommations électriques de l'installation ont été suivies par l'exploitant à l'aide de relevés quasi-hebdomadaires. La consommation d'énergie par volume admis dans la station est très fluctuante comme l'indique la figure 27. Débit admis en entrée de station (m3/j) kWh consommée / m3 admis en entrée de station Moyenne consommation journalière Energie (kWh)/période 1000 240 900 200 800 180 700 160 140 600 120 500 100 400 80 10/4/11 : tarif été 300 60 200 40 100 20 0 23/01 kWh consommé par période de relevé (kWh) Débit admis (m3/j) & consommation (kWh/m3) 220 1/2/11 : réglage aérothermie sur 6 °C dans les locaux 01/02 10/02 19/02 28/02 09/03 18/03 27/03 05/04 14/04 23/04 02/05 0 11/05 figure 27 : Evolution de la consommation électrique par rapport au débit admis sur la station Au cours de ce suivi, la consommation moyenne pendant la période de pointe (22/1/11 au 31/3/11) est de 8,7 kWh/m3 (débit moyen entrée station : 74 m3/j). La consommation d'énergie du jour correspondant au plus fort débit admis (16/3/11 : 184 m3/j) est de 2,9 kWh/m3. Les premiers relevés effectués en période creuse (du 12/4/11 au 10/5/11) indiquent un ratio moyen pour cette période de 27,7 kWh/m3 admis (débit moyen entrée station : 18 m3/j). Les faibles débits admis en entrée de station par rapport au débit nominal engendrent des ratios énergétiques particulièrement élevés (figure 27), en effet certains appareillages fonctionnent sur des cadences non liées au volume admis, ce qui maintient une consommation de base indépendante du débit admis. Notons que ces ratios n'incluent pas la dépense énergétique de la filière boue puisqu'elle n'a pas fonctionné durant cette période de suivi. L'exploitant a cherché à éliminer les sources de consommation énergétique inutiles. Dès le 1/2 il a réglé le chauffage de chaque local (aérotherme) sur 6 °c (position hors gel) au lieu de 19°C, ce qui a permis d'abaisser consommation journalière de 280 kWh. La consommation électrique utilisée par masse de DCO éliminée est également variable (figure 28). Au cours de ce suivi, la consommation moyenne correspondant à la période de pointe (22/1/11 au 31/3/11) est en moyenne de 11 kWh/kg DCO éliminée (sur 9 échantillons moyens), que ce soit en tenant compte des temps de séjour ou non. Le seul relevé exploitable en période creuse (le 6/4/11), indique un ratio de l'ordre de 34 kWh/ kg DCO éliminée. 63 Flux DCO éliminée kWh consommé / Kg DCO éliminée kWh consommé / Kg DCO éliminée (tenant compte temps de séjour) kWh consommé ce jour Moyenne consommation journalière d'énergie (kWh)/période 1000 90 900 80 800 70 700 60 600 50 500 40 400 30 300 20 200 10 100 0 21/02 kWh consommé par jour (kWh/j) kWh consommé / kgDCOéliminée & flux de DCO éliminée 100 0 28/02 07/03 14/03 21/03 28/03 04/04 11/04 figure 28 : Evolution de la consommation électrique par rapport à la DCO éliminée Les caractéristiques des appareillages utilisés sur cette installation sont données dans le tableau 31 en annexe. Les puissances réelles n'ayant pas été mesurées sur site, les puissances nominales ont été utilisées pour les calculs. Il a été nécessaire de minorer de 5 % les puissances nominales afin de faire correspondre la consommation calculée à la consommation réelle totale de l'installation. Cet ajustement mineur indique que les relevés et les temps de marche sont cohérents. Des mesures de puissance seront effectuées lors du prochain suivi. Les consommations énergétiques les plus importantes (du 24/2 au 5/4/11) se ventilent comme suit (figure 29) : 57 % pour l'aération des compartiments membranaires, 10 % pour le fonctionnement de l'agitateur bassin biologique n° 2, 9 % pour l'aération des bassins biologiques. Les différents extracteurs d'air entrainent une consommation énergétique non négligeable (9% pour la désodorisation, 6 % local membrane). Tous les autres appareils représentent moins de 3% chacun de la consommation totale. Aucun appareillage de la filière boue n'a été utilisé. 64 ventilateur murale extracteur d'air : local surpresseur; 2 ventilateur murale extracteur d'air : local membrane; 6 tamis rotatif; 1 compacteur tamis; 3 pompe petit débit : bassin tampon; 2 pompe 1 gros débit : bassin tampon; 0 hydroejecteur : bassin tampon; 1 ventilateur désodorisation; 9 pompes 1 : FeCl3; 0 pompe 2 gros débit : bassin tampon; 0 agitateur bassin biologique 1; 0 pompe 1 : poste toutes eaux; 0 pompes 2 : FeCl3; 0 pompe 2 : poste toutes eaux; 0 agitateur bassin biologique 2; 10 surpresseur air membranes; 57 surpresseur 1 bassins biologiques; 9 figure 29 : Ventilation des consommations électriques (%) Le choix d'arrêter l'agitateur du bassin biologique n°1 a permis d'économiser l'équivalent de 10 % de la consommation totale, mais il serait préférable à l'avenir d'agiter chaque bassin afin d'assurer un meilleur mélange des boues (cf. VI.3.1). Les consommations énergétiques pour la fourniture d'air de décolmatage sont très importantes. Le surpresseur ayant un débit fixe, la possibilité d'aménager des périodes d'arrêt de l'aération en réduisant la durée journalière de filtration et en augmentant le flux brut doit être étudiée en concertation avec le fournisseur des membranes. VI.4.2 Consommation en réactifs Le niveau de la cuve de stockage de la solution de chlorure ferrique à 41% a été relevé fin mai. Le volume total consommé est de 406 litres soit environ 83 kg de Fer, et correspond à toute la période d'injection du 10/2 au 29/3/11, qui recoupe approximativement la période de pointe. Les temps de fonctionnement des pompes doseuses étaient en moyenne de 0,4 heure par jour (fluctuant entre 0 et 1,2 heures), soit en moyenne 11 litres par jour (fluctuant entre 0 et 38 litres journalier), le débit moyen de chaque pompe est estimé sur toute la période à 15,8 L/h. Les données de dimensionnement indiquaient 10 heures d'injection par jour correspondant à 3,4 L/h de solution de chlorure ferrique à 41% soit 34 litres par jour. Les concentrations de sortie en phosphore de cette installation mettent en évidence que l'admission de chlorure ferrique aurait pu être réduite à partir du 14/3/11 afin de limiter la consommation de réactifs. Aucun réactif de lavage de membrane n'a été utilisé durant ce suivi. Les quantités de réactifs utilisées lors des lavages effectués au mois de juillet ne sont pas connues. 65 VI.4.3 Evaluation du temps d'intervention de l'exploitant La société Loïra a précisé dans ses documents techniques les différentes interventions de l'exploitant et les fréquences nécessaires pour un bon fonctionnement de l'installation (Loïra 2010d), que ce soit au niveau de la maintenance des équipements, des analyses et autocontrôles et des relevés de compteurs. Le temps d'intervention de l'exploitant pour le fonctionnement "normal" de la STEP n'est pas connu. En effet le temps passé pendant la période de suivi a été allongé à cause des demandes engendrées par l'étude elle-même, estimé entre 30 minutes et 1 heure par jour. 66 CONCLUSIONS VII.1 ETUDE DU FONCTIONNEMENT ANNEE 1 L'objectif de ce premier suivi de la STEP de Gouaux de Larboust était de bien appréhender les contraintes de fonctionnement de cette installation à très forte variation de charge, d'analyser la pertinence de la stratégie de gestion de la première année et de préparer un protocole de mesures adapté pour la seconde campagne hivernale. Grâce à la collaboration active de l'exploitant, une intensification des mesures a été réalisée sur la période du 10/02/11 au 07/04/11 (8 semaines) pour aller au-delà du protocole initial de suivi convenu avec l'Agence de l'Eau pour la première année de fonctionnement. Ces mesures complémentaires, avec notamment une augmentation de la fréquence et du nombre de paramètres analysés sur les eaux traitées et des relevés quotidiens de paramètres in situ, se sont révélées très utiles pour comprendre le fonctionnement de l'installation. De l'ensemble de ces données il est possible de dégager les points essentiels suivants : • La charge reçue sur l'installation est demeurée très faible jusqu'au mois de janvier, et la majeure partie de la pollution à traiter a correspondu aux congés scolaires de mifévrier à mi-mars. Au cours de cette période, la charge polluante reçue est de l'ordre de 800 EH, soit un quart environ de la capacité nominale en pointe. On ne dispose cependant pas de suffisamment d'éléments pour en donner sa variabilité au cours de la semaine et pour apprécier l'impact des week-ends. Les premiers éléments correspondant à la période creuse (mars-avril) indiquent une charge admise de l'ordre de 10 à 40 EH. • En dehors des périodes très pluvieuses, les effluents de la période de pointe sont relativement concentrés (840 mgDCO/L, 550 mgMES/L) et plus riches en azote (120 mg N-NTK/L) qu'une eau usée urbaine conventionnelle. La composition de ces eaux usées s'apparente à celle des campings, avec un ratio DCO/N faible de l'ordre de 7. • Les volumes journaliers reçus demeurent inférieurs au tiers de la capacité nominale à l'exception des périodes très pluvieuses, où ils peuvent atteindre 40% du nominal. En tout état de cause aucun by-pass n'a eu lieu au cours du suivi tant au niveau du poste de relèvement situé en amont de la STEP que sur la STEP elle-même, en sortie de bassin tampon. • L'ensemencement a été réalisé fin novembre 2011 avec 35 m3 de boues provenant du silo concentrateur de la STEP de Bagnères-de-Luchon (concentration 17,6 g MS/L). La concentration de boue résultante dans les bassins biologiques après remplissage avec les eaux usées entrantes était donc seulement de 1,1 g MS/L. Ces boues ont reçu une charge organique très faible pendant près de 2 mois avec oxygénation permanente par l'aération membranaire. Sans disposer de mesures pendant cette période à très faible charge, on peut supposer qu'une minéralisation importante a eu lieu avec lyse partielle des bactéries. Ce phénomène engendre d'une part le relargage de produits microbiens solubles non biodegradables qui peuvent passer dans l'eau traitée et augmenter les concentrations de DCO, et d'autre part la perte d'une fraction significative de la biomasse active, notamment des bactéries autotrophes nitrifiantes. A l'arrivée de la charge pollu résultant de la fréquentation de la station de ski, la biomasse active s'est donc trouvée insuffisante. • Le brassage des boues dans les bassins membranaires et dans le bassin biologique n° 2, agité en permanence, semble satisfaisant. Cependant la quasi-absence d'agitation (ni mécanique ni aération) dans le bassin biologique n° 1 semble avoir conduit à un mauvais mélange et à des zones de dépôts non aérés avec des phénomènes anoxie et anaérobies. • L'examen de la qualité des eaux usées traitées au cours de la période de suivi montre que si la DBO5 est demeurée conforme à la norme de rejet sur les quelques analyses réalisées, la DCO a dépassé le seuil des 30 mg/L (autorisation de rejet et garantie du constructeur) jusqu'au début du mois de mars (valeurs comprises entre 40 et 90 mg/L). Concernant l'azote, analysé sur chaque échantillon journalier, on constate une augmentation régulière de l'ammonium de 17 à 34 mg/L pendant la période des vacances hivernales (maximum atteint mi-mars), avant de diminuer jusqu'à 7 mg/L avec la forte réduction des flux à traiter et la dilution par des eaux pluviales. Une remontée brutale a ensuite eu lieu fin mars jusqu'à 26 mg/L suivie d'une lente décroissance alors que la charge azotée entrant dans la STEP devenait à nouveau très faible. • Ces fluctuations sur l'azote en sortie peuvent paraître difficilement explicables. Cependant, l'analyse conjointe de toutes les conditions de fonctionnement et des résultats d'analyses du perméat permet d'avancer des interprétations : (i) il y a bien nitrification importante de l'ammoniaque, même si elle n'est pas complète, et on peut estimer le taux de N nitrifié à 75% de la part nitrifiable de fin février à fin mars, (ii) la biomasse autotrophe est donc insuffisante pour nitrifier l'azote non assimilé et la croissance de nouvelles bactéries ne comble pas le déficit, (iii) l'azote dénitrifié bien que plus difficile à évaluer à partir des seuls résultats disponibles en entrée peut être estimé à environ 30 % pendant la période des vacances scolaires. Deux facteurs défavorables principaux viennent ici entraver la croissance d'une population de bactéries nitrifiantes : le premier est la faible température, condition prévue, et le second est le faible TAC des eaux usées. Les pH acides observés (jusqu'à 5,3), notamment après la pointe de charge, inhibent en effet partiellement la nitrification. En période de très faible charge à l'entrée de la STEP et en conditions pénalisantes pour la nitrification dans les bassins d'aération (température et pH) la lyse de la boue stockée conduit à une augmentation de la concentration en N-NH4, dégradant la qualité de l'eau traitée. • La dénitrification est rendue très difficile du fait de la présence quasi permanente d'oxygène dans les bassins d'aération alors que le surpresseur n'y a quasiment pas fonctionné. L'aération continue des cellules membranaires suffit en effet à apporter l'oxygène nécessaire dans l'ensemble des bassins ques et à y maintenir un excès permanent. La dénitrification ne semble avoir été possible que dans les zones mortes ou de dépôts créées par l'absence d'agitation dans le bassin biologique n°1. • La production spécifique de boue évaluée à partir des quelques mesures de flux disponibles sur l'entrée apparait très faible (0,14 kg MS/kg DCOéliminée). Cette valeur pourrait être affectée par l'incertitude très élevée sur l'évaluation de la masse de boue totale (à cause du mauvais mélange dans le bassin n°1), et sur les charges en entrée (interpolation hasardeuse entre 2 prélèvements). Mais ce faible ratio pourrait aussi s'expliquer en partie par les âges de boue très élevés (absence d'extraction de boue). La production de boue devra être confirmée durant le suivi de l'année suivante. La filière boue de la STEP n'a pas été utilisée depuis la mise en fonctionnement de cette installation 68 • Les bactéries filamenteuses largement présentes en début de suivi ont presque totalement disparu en fin de campagne, conduisant à une amélioration spectaculaire de l'indice de boue (d'environ 250 à 65 mL/g). Ceci a accentué la formation de dépôts dans le bassin biologique n°1 à partir de fin mars. De plus on a pu observer une défloculation en fin de suivi, attribuable à la réduction drastique de la charge. • Compte tenu des débits à traiter et du réglage des temps de filtration, le flux de filtration demeure faible (flux net : 3,2 L/(m2.h)) et loin de la valeur nominale de 13,5 L/(m2.h). Aucun colmatage n'a été mis en évidence lors de la période hivernale suivie. L'évolution des caractéristiques de la boue n'ont pas induit de modifications dans la filtration, dont la perméabilité est restée très stable dans le temps. Le tout premier nettoyage chimique des membranes a été effectué après l'étude, en juillet 2011. • Très logiquement, du fait de la sous charge et de l'aération permanente des membranes, l'énergie consommée présente des valeurs élevées tant rapportées au m3 traité qu'au kg de DCO dégradé. En période de pointe hivernale, la consommation totale moyenne ressort à 8,7 kWh/m3 ou 11kWh/kgDCOéliminée, dont 57% pour l'aération des 3 cellules membranaires. Des gains énergétiques sont à rechercher sur le fonctionnement des compartiments membranaires pour le fonctionnement particulier de la STEP en période creuse. VII.2 PRECONISATIONS D'EXPLOITATION ANNEE 2 Partant de ces observations et de la probable faible évolution des charges polluantes qui seront reçues l'année 2 de fonctionnement, tant hors saison de ski que pendant celle-ci, on peut émettre quelques préconisations de préparation et de conduite de la STEP pour atteindre (ou se rapprocher) des niveaux de qualité requis. • En premier lieu, il semble plus opportun de réaliser l'ensemencement peu de temps avant l'arrivée des skieurs pour éviter des pertes de biomasse active faute de charge à traiter. En se basant sur la nitrification obtenue lors de l'hiver 2011, un apport d'une quantité augmentée de 25% à 50% par rapport à l'ensemencement de novembre 2010 devrait être suffisant. Le Cemagref peut se charger de réaliser un test sur les boues des STEP de Gouaux et de Bagnères de Luchon afin de mesurer leurs capacités respectives de nitrification et d'optimiser les quantités supplémentaires de boue à apporter. • Il faudra se donner les moyens de pouvoir corriger le pH dans les bassins d'aération pour éviter des conditions qui freinent la nitrification. • Une réflexion est aussi à mener avec le constructeur de la STEP et le fournisseur des membranes sur la possibilité de limiter l'aération dans les compartiments membranaires (débit de filtration brut plus élevé et introduction de phases d'arrêt?). Ceci permettrait de réserver des plages de temps sans oxygène dans les bassins biologiques pour dénitrifier, et de réduire la consommation énergétique. VII.3 MISE EN OEUVRE DE L'ETUDE ANNEE 2 Afin de mieux connaitre la charge polluante admise sur les bassins biologiques, un préleveur asservi au fonctionnement de la pompe petit débit sera placé dans le bassin tampon. Un 69 pluviomètre sera placé sur l'installation afin de relier les débits admis sur l'installation et les concentrations observées en entrée de station à la pluviométrie. Des capteurs supplémentaires avec acquisition et télétransmission des données seront mis en place à l'entrée, dans les bassins et en sortie de station pour suivre des paramètres supplémentaires et avoir de l'information en continu. L'agitation mécanique des boues devra être effective dans les 2 bassins biologiques dès que l'aération est arrêtée afin d'assurer un meilleur brassage et de permettre la détermination de la masse de boue réelle du système. Une éventuelle alternance de l'agitation mécanique entre les 2 bassins pourra être étudiée afin de limiter la consommation énergétique engendrée. L'enregistrement effectif et la récupération des données de la supervision sous une forme exploitable dans un tableur reste essentielle pour une analyse complète du système de traitement et disposer de tous les éléments nécessaires pour réfléchir aux meilleures solutions possibles pour respecter les niveaux de rejet requis. Le soutien logistique d'un correspondant sur site sera également nécessaire pendant tout le suivi (envois des échantillons, tests de décantation, suivis de l'installation, relevés de l'énergie consommée, ). BIBLIOGRAPHIE Boutin, C., S. Prost-Boucle, and M. Boucher, Etude des filtres plantés de roseaux dimensionnés pour des campings, Rapport Cemagref, ONEMA, EPNAC, Conseil général de la Dordogne, 2010. EIMA, ASCONIT Consultants, and ECOGEA, Détermination de l'état initial de la Gouté de Courbe et de la Neste D'Ôo avant le démarrage de la station d'épuration domestique de Gouaux-de-Larboust, Rapport Agence de l'eau Adour-Garonne, 2010. FNDAE, G. Deronzier, S. Schétrite, Y. Racault, J. P. Canler, A. Liénard, A. Héduit, and P. Duchène, Traitement de l'azote dans les stations d'épuration biologique des petites collectivités, FNDAE, CEMAGREF, MAP-DERF, 2002. GIS Biostep, Augmentation de la quantité de biomasse autotrophe par ajout d'alcali, GIS Biostep, 2009. Loïra, Commune de Gouaux de Larboust : construction d'une station d'épuration de 3000 EH extensible à 6000 EH. Document général : Notice de fonctionnement., Rapport, 2010a. Loïra, Commune de Gouaux de Larboust : construction d'une station d'épuration de 3000 EH extensible à 6000 EH. Note de calcul, traitement biologique, Rapport, 2010b. Loïra, Commune de Gouaux de Larboust : construction d'une station d'épuration de 3000 EH extensible à 6000 EH. Note de calcul, traitement des boues, Rapport, 2010c. Loïra, Commune de Gouaux de Larboust : construction d'une station d'épuration de 3000 EH extensible à 6000 EH. Notice d'exploitation, Rapport, 2010d. Préfecture de la haute garonne, Arrêté préfectoral n°31-2008-00327 portant à déclaration au titre de l'article L 214-3 du code de l'environnement concernant la construction d'une station d'épuration de 3000 EH ble à 6000 EH commune de Gouaux-deLarboust, 2008. SOGREAH consultants, Création d'une station d'épuration : dossier de déclaration au titre du code de l'environnement - note additionelle, Rapport, 2008. ANNEXES figure 30 : Plan du réseau d'assainissement de la commune de Gouaux de Larboust tableau 27 : Estimation de la charge hydraulique et de la charge polluante (rapport SOGREAH) estimée en novembre 2008 Charge hydraulique Charge hydraulique (m3/j) Charge hydraulique moyenne (m3/h) Débit eaux claires parasites temps sec (m3/h) Débit eaux claires parasites temps de pluie (m3/h) Coef de pointe Charge hydraulique pointe (m3/h) = Débit de pointe de temps de pluie Débit (EH) Charge polluante kgDBO5 Période creuse 1/4 au 30/6 et du 1/9 au 30/11 Période pointe 1/12 au 31/3 et du 1/7 au 31/8 12 0,5 0,21 0,42 3 288 12 0,21 0,42 3 2,1 80 36,6 1920 4,8 115,2 470 72 tableau 28 : Estimation de la charge hydraulique et de la charge polluante (rapport SOGREAH) estimée à court terme Période creuse 1/4 au 30/6 et du 1/9 au 30/11 Période pointe 1/12 au 31/3 et du 1/7 au 31/8 Charge hydraulique Charge hydraulique (m3/j) 14 443 Charge hydraulique moyenne (m3/h) 0,6 18,5 Débit eaux claires parasites temps sec (m3/h) 0,21 0,21 Débit eaux claires parasites temps de pluie (m3/h) 0,42 0,42 Coef de pointe 3 3 Charge hydraulique pointe (m3/h) = Débit de pointe de temps de pluie 2,4 58 Débit (EH) 95 2920 710 Charge polluante kgDBO5 5,7 177 La période de pointe hivernale est estimée à 15 jours en février soit 2950 EH et la période de pointe estivale est estimée également à 15 jours en août soit 2065 EH tableau 29 : Estimation de la charge hydraulique et de la charge polluante (rapport SOGREAH) estimée à long terme (3000 couchage en plus sur la station des Agudes) Charge hydraulique Charge hydraulique (m3/j) Charge hydraulique moyenne (m3/h) Débit eaux claires es temps sec (m3/h) Débit eaux claires parasites temps de pluie (m3/h) Coef de pointe Charge hydraulique pointe (m3/h) = Débit de pointe de temps de pluie Débit (EH) Charge polluante kgDBO5 Période creuse 1/4 au 30/6 et du 1/9 au 30/11 Période pointe 1/12 au 31/3 et du 1/7 au 31/8 14 0,6 0,21 0,42 3 862 36 0,21 0,42 3 2,4 95 108,4 5750 5,7 345 1320 73 Poste de relev age n°2 photo 1 : Implantation de la station d'épuration de Gouaux de Larboust et du poste de relevage n°2 (Google earth, 1/1/2006) photo 2 : Vannes manuelles de bypass de la station 74 photo 3 : Débitmètre en entrée de station 75 tableau 30 : Caractéristiques des membranes MFM300 76 Copie du : http://www.alfalaval.com/solution-finder/products/hollow-sheetmembrane/pages/ .aspx?Source=http%3a%2f%2fwww com%2fsolutionfinder%2fproducts pages%2 aspx 77 tableau 31 : Caractéristiques des appare illages utilis és sur la station de Gouaux de Lar boust Compacteur ensacheur Electrovanne de rinçage des égouttures du compacteur Hydroéjecteur Bassin tampon 1 1 1 1 Pompe de reprise petit débit (bassin tampon) 1 TL-200 ELV-200 CO-200 ELV-202 HE300 PC300 Marque ROTOSIEV E ASCO ROTOSIEVE ASCO FLYGT FLYGT Type RS 4024-51 / KP 200 / NP3127H150 Puissance (VA, kW) Tension (V) Intensité (A) Débit mini Débit maxi 0,55 / 1,29 0 m3/h 75 m3/h 5 24 1,1 5 24 5,9 400 / DP 3057 MT 1,7 400 / / 11 m3/h Equipement Tamis rotatif Electrovanne de lavage du tamis nombre 1 Synoptique 2,81 Equipement Ventilateur muraux d'extraction d'air local membranes Surpresseur air process (principal) Surpresseur air process (secours) Ventilateur mural d'extraction d'air (local surpresseur) Vanne de régulation de débit nombre 2 1 1 1 1 Synoptique VE-455 & VE 456 SU-450 SU-451 VE-450 VGA-500 Marque Type Puissance (VA, kW) Intensité (A) Débit maxi Débit mini (Nm3/h) Débit maxi (Nm3/h) Diamètre (mm) VIPE Hélicoïde 0,22 0,5 1500 m3/h / / / ROBUSHI ES65/2P 37 63 / 340 750 / ROBUSHI ES65/2P 37 63 / 340 750 / VIPE / 0,5 1,5 5092 m3/h / / / AUMA SA.07.5 0,75 1,7 / / / 125 Pompe de reprise gros débit (bassin tampon) Agitateur (bassin aération) 2 PC301 et PC302 2 AG-400 & AG-401 FLYGT FLYGT DP 3068 MT 4640 1,5 400 / 2,5 / 7 34 m3/h / Vanne Surpresseur air tout ou membranes rien 1 VGA501 AUMA SA.07.5 0,75 1,7 / / / 125 1 Pompe eaux industrielles 2 SU-452 ROBUSHI ES40/2P 15 26,9 / / 340 (débit fixe) / pas d'infos 78 Equipement nombre Pompes FeCl3 pompe injection acide citrique 1 pompe injection eau de javel 1 PV 903 PV 902 PC 502 OBL OBL pompe alimentation cuve CIP Pompes toutes eaux Ventilateur désodorisation 1 SOMEFLU 2 PC170 et PC171 FLYGT Marque 2 PV900 & PV901 OBL Type MB2 3PP MC 421 PP MC 421 PP HMPTS-32/125 DP3068 HT Puissance (VA, kW) Intensité (A) Débit mini Débit maxi Débit mini (Nm3/h) Vitesse maximale bol (trs/mn Temps de fonctionnement journalier (heures / jour) 0,2 0,65 0,3 0,98 0,3 0,98 0,75 2,01 4 L/h 23 L/h 80 L/h 421 L/h 80 L/h 421 L/h 5 m3/h / 2,4 5,3 / 15 Synoptique 1 VE001 SBPI Charbon dopé KOH 5,5 2,4 / 5400 m3/h Pompes extraction de boues 2 PC400 & PC401 FLYGT DP 3057 MT 1,7 3,8 15 Centrifugeuse 1 CE 700 ALFA LAVAL ALDEC 20 15 27,5 / 7 4400 24 Equipement Pompe gaveuse pompe polymère Agitateurs cuve préparation polymère Pompes injection polymère nombre Synoptique Marque 1 P700 SEEPEX 2 AG800 / 801 / 2 PV 801 / 802 SEEPEX Type BTHE 5-12 Puissance (VA, kW) Intensité (A) Débit mini Débit maxi 3 6,5 0,1 m3/h 0,7 m3/h 1 PV800 OBL RBB 16 HV 50 DV 0,2 / 6 L/h Pompe de transfert des boues 1 PV 700 BW1 0,18 0,57 0,55 1,65 240 L/h 1100 L/h 79 tableau 32 : Base de dimensionnement des bassins de traitement biologique pour le traitement de l'azote (société Loïra) Période creuse Période pointe 0,3 8,3 Azote assimilé par les boues kg/j N-NH4 maximum au rejet mg/L N-NH4 maximum au rejet kg/j 0,04 1,35 Azote à nitrifier kg/j 0,96 35,35 Cinétique de nitrification gN/kgMV/h Charge volumique sur l'azote kgN/m3/j N-NO3 maximum au rejet mg/L N-NO3 maximum au rejet kg/j 0,1 3,6 Azote à dénitrifier kg/j 0,86 31,75 Cinétique de dénitrification gN/kgMV/h 3 2 0,01 0,1 8 1,6 tableau 33 : Base de dimensionnement des bassins de traitement biologique pour le traitement du phosphore (société Loïra) Période creuse Période pointe Ptotal entrée biologique kg/j 0,2 5,9 Phosphore dans les boues kg/j 0,1 2,3 Ptotal eu rejet mg/L 7,7 2 Ptotal eu rejet kg/j 0,1 0,9 Phosphore à éliminer kg/j 0 2,7 Réactif de traitement FeCl3 à 41% Densité 1,45 Rapport molaire Fe/p 1,43 Quantité FeCl3 à 41% à rajouter kg/j 0 49,4 Quantité FeCl3 à 41% à rajouter L/j 0 34,0 h/j 0 10,0 Débit FeCl3 à 41% théorique L/h 0 3,4 Nombre de pompe en fonctionnement 0 1 Nombre de pompe en secours 0 1 Débit retenu des pompes L/h 0 à 20 Volume cuve de stockage m3 10 Autonomie mois 9,7 80 tableau 34 : Extrait de l'arrêté du 22 juin 2007, performances minimales des stations d'épuration des agglomérations devant traiter une charge brute de pollution organique supérieure à 120 kgDBO5/j 1. 82 tableau 35 : Autocontrôles (LDE31) 83 tableau 36 : Références des méthodes analytiques utilis ées REFERENCE DE LA METHODE pH Potentiomètrie NF T 90-008 Conductivité Méthode à la sonde NF EN 27888 (T 90-031) Ammonium Spectrométrie visible analyseur flux continu ISO 11732 Spectrométrie visible analyseur flux continu Spectrométrie visible analyseur flux continu Nitrates Nitrites NF T90-012 NF T90-012 Spectrométrie visible NF T 90-023 Spectrométrie visible NF T 90-023 Azote Kjeldahl Volumétrie NF EN 25663 (T 90-110) DBO5 Electrochimie NF EN 1899-1 (T90-103-1) DCO Volumétrie NF T 90-101 Gravimétrie NF EN 872 (T 90-105-1) Perte au feu NF EN 12879 séchage NF EN 12880 TAC Potentiomètrie NF EN 9963-1 (T90-036) TA Potentiomètrie NF EN 9963-1 (T90-036) 200 Débit journalier entrée station (mesuré) Débit sortie poste de relevage (estimé : 57m3/h) % écart 180 1/4/11 : Intervention sur pompe par le fournisseur 5 160 140 Débit (m3/j) 10 0 120 100 -5 80 -10 60 40 20 0 10/2 -15 14/3/11 : Pompes bridées par exploitant -20 15/2 20/2 25/2 2/3 7/3 12/3 17/3 22/3 27/3 1/4 Ecart débit entrée station & débit estimé des pompes (%) MESURE 6/4 figure 31 : Evolution des écarts de débits entre le poste de relevage et le débit mesuré en entrée de station. : Résultats d'analyses des effluents brutes d'entrée station pH Conductivité DCO DBO5 MES %MVS N-Nkj TA TAC mmol mmol Laboratoire date début date fin μS/cm mg/L mg/L mg/L mg/L mgN/L mgN/L mgP/L mgP/L H+/L H+/L d'analyse Loïra / lun 14/02/11 11 :00 mar 15/02/11 11 :00 / / 870 430 / / 120.0** / 12.0 / / / LDE31 Cemagref lun 21/02/11 09:00 mar 22/02/11 09:00 7.7 973 657 242 849 88.7 109.2 69.4 9.6 4.5 / / de Cestas Loïra mer 23/02/11 11 :00 jeu 24/02/11 11 :00 / / 463 / 206 / 68.0 / 18.0 / / / /LDE31 Cemagref lun 28/02/11 09:00 mar 01/03/11 09:00 7.4 1631 1111 329 592 89.2 132.7 102.0 10.3 8.0 / / de Cestas Cemagref lun 07/03/11 09:00 mar 08/02/11 09:00 7.6 1411 965 359 446 91.9 134.4 96.5 12.9 8.0 0 9.4 de Cestas Loïra mar 8/03/11 11 :00 mer 9/03/11 11 :00 / / 970 520 645 / 135.0 106.0 16.7 / / / /LDE31 Cemagref lun 14/03/11 09:00 mar 15/03/11 09:00 7.3 756 533 163 131 / 58.8 35.5 5.6 2.9 0 4.9 de Cestas Cemagref lun 21/03/11 09:00 mar 22/03/11 09:00 7.3 708 397 154 180 97.0 46.9 10.9 4.28 1.9 0 4.5 de Cestas lun 28/03/11 15:00 mar 29/03/11 15:00 7.4 / 630 240 294 / 35.2 19.0 6.7 / / / LDE 31 Cemagref mer 30/03/11 09:00 jeu 31/03/11 09:00 / 391 273 108 77 97.6 25.2 8.9 2.9 0.4 0 2.3 de Cestas Cemagref mer 06/04/11 09:00 jeu 07/04/11 09:00 / 456 295 137 120 98.3 23.8 5.9 / 0.4 0 3.1 de Cestas lun 11/04/11 15:00 mar 12/04/11 15:00 7.5 / 75 30 52 / 14.5 10.0 2.0 / / / LDE mer 25/05/11 13:00 jeu 26/05/11 13:00 7.9 / 385 150 190 / / / / / / / LDE 31 mar 14/06/11 14:30 mer 15/06/11 14:30 7.5 / 370 130 245 / 40.2 26.0 6.1 / / / LDE 31 Le 7/3/11 : un test bandelette a été effectué sur cet échantillon et indiqué l'absence de Nitrates et Nitrites, les analyses effectuées sur ces paramètres les 8/3, 28/3, 11/4 et 15/6 indiquent des concentrations inférieures à 0,5 mgN-NO3/L et 0,1 mgN-NO2/L.
53,408
c27435132a5c47e8d1c28fcf66c52ae7_2
French-Science-Pile
Open Science
Various open science
2,000
La vertu des images. Analogie, proportion et métaphore dans la genèse des sciences sociales au XVIIe siècle
None
French
Spoken
7,472
12,322
Mais il est en tout point comparable à ces machines fragiles que les gestes brusques, les « grands coups d’autorité », comme dit Montesquieu, mettent hors d’« état d’aller » 68. L’État comparé à une montre : Rousseau a beau clamer son originalité, il emprunte à son tour un lieu commun du siècle, 63. Écrits sur l’abbé de Saint-Pierre, in ROUSSEAU, 1959-1995, vol. III, p. 606. 64. BAUCLAIR, 1981, p. 173. 65. Du contrat social, liv. II, chap. IV, et liv. III, chap. XI, in ROUSSEAU, 1959-1995, vol. III, p. 374 et 424. 66. Du contrat social, liv. III, chap. XI, in ROUSSEAU, 1959-1995, vol. III, p. 424. 67. Écrits sur l’abbé de Saint-Pierre, in ROUSSEAU, 1959-1995, vol. III, p. 605. Pour une réfutation ironique du monarque au « levier » de l’État, voir Du contrat social, liv. III, chap. VI, in ROUSSEAU, 1959-1995, vol. III, p. 410 : « Avec un levier suffisant, d’un doigt l’on peut ébranler le monde, mais pour le soutenir, il faut les épaules d’Hercule. Pour peu qu’un État soit grand, le Prince est presque toujours trop petit. » Même ironie contre l’image du « char » ou « attelage », qui sera employée par Bauclair : dans les « vastes Empires », « les rênes de l’État peuvent tomber entre les mains d’un sot, sans que les affaires cessent d’aller » !, voir La Nouvelle Héloïse, liv. VI, lettre 5, in ROUSSEAU, 1959-1995, vol. II, p. 658. 68. Montesquieu, De l’esprit des lois, XXII, 13, cité et commenté par HIRSCHMAN, 1980, p. 69-70 ; Manuscrit de Genève, liv. I, chap. I, in ROUSSEAU, 1959-1995, vol. III, p. 281. 60 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 après Boisguilbert et Diderot, avant Frédéric II et Herder, en même temps que James Steuart, par exemple, qui donne de la métaphore une version remarquable : « Il en est des gouvernements comme des machines, plus elles sont simples, plus elles sont solides et durables ; plus elles sont composées avec art, plus elles deviennent utiles ; mais aussi plus elles risquent d’être hors d’état de marche. La forme spartiate peut être comparée à un coin (wedge), de toutes les puissances mécaniques la plus solide et la plus compacte. Ceux des États modernes peuvent l’être aux montres, qui se dérangent continuellement ; tantôt le ressort s’avère trop faible, tantôt trop fort pour la machine : et quand les roues ne sont pas faites en suivant une proportion fixée, par les mains expertes d’un Graham ou d’un Julien Le Roy, elles ne s’accordent (tally) pas bien les unes avec les autres ; alors la machine s’arrête, et si on la force, des pièces se cassent ; et il faut avoir recours à la main de l’ouvrier pour la réparer 69. » De cette version pour ainsi dire canonique de la théorie du « doux commerce », Rousseau se distingue pourtant. Tout d’abord, il masque la métaphore : la montre n’est jamais nommée dans le Contrat social, seulement une « machine ». Ensuite, il ne s’attache pas seulement au dérèglement de la montre, mais aussi à sa durée de marche. Comme dit Gérard Namer, Rousseau lit Montesquieu « à partir de Machiavel » — Machiavel qui faisait précisément du temps la « substance du pouvoir », selon l’expression d’Antonio Negri 70. Rousseau, qui refuse également l’image de la « balance » chère à Montesquieu, réintègre dans sa machine politique la relation complexe du temps et de la force : « L’on ne peut éviter en politique non plus qu’en mécanique d’agir plus faiblement ou moins vite, et de perdre de la force ou du temps 71. 70. NAMER, 1979, p. 35 ; NEGRI, 1992, p. 100. 71. Manuscrit de Genève, liv. I, chap. IV, in ROUSSEAU, 1959-1995, vol. III, p. 296. L’image de la balance, associée de manière conventionnelle à la politique dans l’oraison funèbre du duc d’Orléans (« [...] ces mystères de Cabinet où les destins de l’État sont en secret balancés au poids de l’équité et de la raison »), est implicitement critiquée au moment de l’Émile, car c’est un instrument qui peut être faux, ou volontairement faussé : « Voilà déjà mon petit physicien capable de rectifier des balances avant que d’en avoir vu. » Voir Oraison funèbre de S.A.S. Monseigneur le duc d’Orléans, in ROUSSEAU, 1959-1995, vol. II, p. 1280, et Émile, liv. III, in ROUSSEAU, 1959-1995, vol. IV, p. 442. F. LEFEBVRE : LA VERTU DES IMAGES 61 peuple), force commune au tout, est comme le ressort moteur 72. Et le législateur, bien sûr, est comme le maître horloger de l’époque, qui conçoit la montre et en confie l’exécution à ses ouvriers : « homme extraordinaire dans l’État », il « constitue la république » mais « n’entre point dans sa constitution », il est le « mécanicien qui invente la machine » alors que « d’autres plus sages en régleront les mouvements », viendront la « monte(r) », la faire « marcher », la « remonter » « quand elle s’arrête » 73. Nous ne savons pas, et nous ne saurons probablement jamais, comment se présentait la théorie du gouvernement dans le Manuscrit de Genève. Cette partie, Rousseau l’a déchirée un jour. Mais ce qui reste du Manuscrit suffit pour comprendre ce qui manque à Bauclair, à la métaphore du corps, et à Rousseau lui-même jusqu’à l’aboutissement de ses « pénibles recherches » : un troisième terme assurant la communication entre l’âme et le corps, comme la glande pinéale chez Descartes 74. Ainsi, « l’action de la volonté générale sur la force publique », qui était encore comparée dans le Manuscrit à « l’action de l’âme sur le corps », véritable « abîme de la philosophie », devient dans le Contrat social « l’union de l’âme et du corps », assurée par un « agent propre » : le gouvernement 75. Mais là où nous comprenons aujourd’hui cette union comme un problème purement physique (ou métaphysique), les contemporains, formés dans Descartes, Leibniz, Mandeville, etc., y mettaient aussi de l’horlogerie : Comenius associait la raison à l’échappement et les désirs aux poids d’une horloge ; Descartes mettait en scène deux horloges parfaitement accordées (chose exceptionnelle au moment où il écrit) pour illustrer la perfection divine, qui sait régler ensemble, mais séparément, l’âme et le corps ; Mandeville prend l’âme pour « le ressort moteur en nous ». Plus près de Rousseau, Vauvenargues compare la raison à l’aiguille qui indique les heures au cadran d’une montre, et Voltaire traite des passions comme des roues qui font aller les machines de la nature 76. 72. Du contrat social, liv. III, chap. I, in ROUSSEAU, 1959-1995, vol. III, p. 395-399. Pour une présentation plus détaillée de l’analogie de la montre, qui consiste aussi à rapprocher le problème de la taille des roues du problème de la taille des différents conseils dans une république, voir LEFEBVRE, 1998b. 73. Manuscrit de Genève, liv. II, chap. II, et liv. I, chap. I, in ROUSSEAU, 1959-1995, vol. III, p. 313 et 281 ; Lettres écrites de la montagne, lettre IX, in ROUSSEAU, 1959-1995, vol. III, p. 896. Sur la division du travail dans l’horlogerie (on pouvait compter jusqu’à dix-sept métiers différents dans la fabrication d’une montre), voir Encyclopédie, article « Horlogerie ». 74. Manuscrit de Genève, liv. I, chap. IV, in ROUSSEAU, 1959-1995, vol. III, p. 297 ; Discours sur les sciences et les arts, part. II, in ROUSSEAU, 1959-1995, vol. III, p. 18. 75. Manuscrit de Genève, liv. I, chap. IV, in ROUSSEAU, 1959-1995, vol. III, p. 296 ; Du contrat social, liv. III, chap. I, in ROUSSEAU, 1959-1995, vol. III, p. 396. 76. Comenius, cité in MUMFORD, 1973-1974, vol. II, p. 135 ; sur Descartes, voir BOORSTIN, 1983, p. 66 ; MANDEVILLE, 1990, vol. II, p. 141 ; Vauvenargues, Introduction à la connaissance de l’esprit humain, et Voltaire, Traité de métaphysique, cités in CASSIRER, 1966, p. 129. 62 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 Jusque dans leur précision, les deux métaphores du Contrat social — la société comme montre et la société comme application d’une volonté à une force — se croisent donc déjà avant Rousseau. Mais il appartient à Rousseau de rapprocher la métaphore et l’analogie, en fécondant ces lieux communs par les calculs d’horlogerie, bien connus des contemporains comme exemple de résolution de proportions (ou fractions continues). C’est même un ami de Rousseau, le genevois Jean Romilly, qui en donne le traité dans l’Encyclopédie. Romilly, qui invente en 1757 une montre susceptible de marcher trois cent soixante-dix-huit jours, un record de longévité, un exemple à suivre 77. Avec la métaphore de la montre, aussi belle — et plus légitime — que celle d’Homère, l’« évidente analogie » qui s’établit entre « le rapport du souverain aux sujets » et le rapport « du gouvernement à l’égard des magistrats » retrouve sa raison d’être 78. Et, plus généralement, l’appareil mathématique du gouvernement, dont Bauclair réfutera l’« analogie » parce qu’il raisonne lui-même à partir d’une autre métaphore, celle du corps 79. L’ESPACE DES RELATIONS CHEZ SMITH À l’inverse du Contrat social, la Théorie des sentiments moraux est un succès immédiat : « [...] il est impossible pour un livre aussi sérieux d’être accueilli avec plus de bienveillance 80 », écrit un témoin depuis Londres. Dans les termes mêmes du jeune Edmund Burke, c’est un excellent travail, aux exemples nombreux et bien choisis, digne d’un homme doué d’un sens peu commun de l’observation, mais aussi un livre au raisonnement puissant, dont les parties se fortifient les unes les autres si naturellement, bref, un des plus beaux édifices de théorie morale qu’on ait jamais vu 81. Sur un sujet aussi « éculé » que celui des « systèmes de morale » (ce sont les expressions de Burke) 82, Smith parviendrait donc à innover en 77. Voir Jean ROMILLY, Encyclopédie, article « Frottement ». Sur Romilly, citoyen de Genève, maître-horloger à Paris depuis 1752, voir CHAPIRO, 1991, p. 132-134. 78. Du contrat social, liv. III, chap. II, in ROUSSEAU, 1959-1995, vol. III, p. 400. 79. BAUCLAIR, 1981, p. 116-118 : « On peut douter que l’analogie soit si évidente. Les magistrats ne sont pas au gouvernement ce que les sujets sont au souverain [...] Plus les magistrats sont nombreux, plus le gouvernement est faible ; et l’analogie demanderait qu’on dît : Plus les magistrats sont nombreux, plus le gouvernement est fort ; car dans la doctrine de l’auteur, plus les sujets sont nombreux, plus le souverain a d’autorité. Et cette dernière proposition doit être le fondement de l’analogie. » 80. Lettre de William Robertson du 14 juin 1759, dans The Correspondence of Adam Smith, in SMITH, vol. VI, p. 40. 81. Edmund Burke, cité in David D. RAPHAEL et Alec L. MACFIE, introd. à Adam Smith, Theory of moral sentiments, in SMITH, vol. I, p. 28. 82. Ibid. F. LEFEBVRE : LA VERTU DES IMAGES 63 donnant le premier rôle à la sympathie, notion dont il élargit le sens usuel : non plus seulement le sens de pitié et de compassion envers les souffrances des autres, mais « la faculté de partager les passions des autres quelles qu’elles soient 83 ». Ainsi définie, la sympathie devient le principe unique des relations sociales, fonctionnant comme « changement imaginaire de situation 84 », comme « faculté [...] de nous mettre, par l’imagination », à la place des autres, sans restriction 85. Dans la configuration de base définie par Smith, un agent exprime un certain sentiment (feeling, passion, sentiment) pour un objet (personne, idée, chose), sous les yeux d’un spectateur. Celui-ci approuve ou désapprouve ce sentiment, selon qu’il lui paraît ou non convenable, c’est-à-dire proportionné à son objet. Mais l’effet naturel de sympathie (l’échange imaginaire des places entre agent et spectateur) peut les conduire, pour parvenir à un meilleur accord (concord), à une meilleure correspondance de leurs sentiments, à modifier, l’un sa passion, l’autre son critère de jugement. James Wodrow, ancien élève de Smith à Glasgow, se souviendra de cette « ingénieuse tentative de rendre compte des principaux phénomènes du monde moral par cet unique principe général, comme la gravitation dans le monde naturel 86 ». Pour ses contemporains, l’ambition de Smith n’apparaît pas moins élevée que celle de Newton. 83. Theory of moral sentiments, I.i.1.5, in SMITH, vol. I, p. 10 (trad. Sophie DE GROUCHY, marquise de Condorcet, p. 4). On dispose aujourd’hui d’une nouvelle traduction par Michaël Biziou, Claude Gautier et Jean-François Pradeau (1999), qui corrige la plupart des erreurs et omissions de Mme de Condorcet (1798), en soulignant mieux les métaphores du déplacement et de l’optique. Mais cette nouvelle traduction reste perfectible, car elle atténue trop la construction mathématique de l’« étalon » de convenance des sentiments, les jeux d’échelles d’intensité et de distance, et les notions de « mesure », de « proportion », de « rapport ». De plus, elle sous-estime le registre de la « conversation » et du « ridicule » et surestime la référence au « théâtre », en confondant la position purement spatiale du « spectateur » avec un spectacle sur une scène. Enfin, l’expression « point de vue » n’est pas toujours pertinente pour traduire « in the light of » ou « in the view of », alors même qu’on dispose d’expressions plus courantes à l’époque : « sous le jour de », « au regard de », « aux yeux de ». L’expression « point de vue » conserve, en effet, au XVIIIe siècle un sens proche de son sens technique originel : le point où il faut se placer pour voir correctement un tableau peint selon les règles de la perspective. Dans la logique de Smith, seul le « spectateur impartial » est toujours au « point de vue ». Sur l’histoire de la perspective en général, voir HAMOU, éd., 1995, et sur cette question en particulier, voir Frédéric LEFEBVRE, « De l’art de voir à l’art de vivre. Perspective et point de vue chez Rousseau », à paraître dans les Études Jean-Jacques Rousseau, 12, déc. 2000. Dans la suite, les citations de Smith seront données dans l’une ou l’autre des traductions disponibles, ou traduites par moi-même, en mentionnant la référence dans l’édition anglaise de référence, puis dans la traduction choisie, notée C pour Théorie des sentiments moraux, Plan-de-la-Tour, Éd. d’Aujourd’hui, 1982, reprint de l’édition Guillaumin 1860, et BGP pour Théorie des sentiments moraux, Paris, Presses universitaires de France, 1999. 84. Theory of moral sentiments, I.i.4.6-7, in SMITH, vol. I, p. 21 (BGP, p. 45). 85. Ibid., I.i.1.3, in SMITH, vol. I, p. 10 (C, p. 2-3). 86. Cité in D. D. RAPHAEL et A. L. MACFIE, introd. à Theory of moral sentiments, in SMITH, vol. I, p. 3. 64 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 Malgré ses protestations de modestie 87, Smith n’a besoin de personne pour faire cette comparaison. Dans un essai antérieur à la Théorie, il annonçait son ambition : dans le système de Newton, une fois admis le principe de l’universalité de la gravitation, tous les phénomènes expliqués suivent nécessairement, et leur connexion n’est pas « générale et relâchée (loose), comme dans la plupart des autres systèmes », mais « partout la plus précise et détaillée que l’on puisse imaginer » 88. C’est aussi ce qu’il répète depuis dix ans dans ses cours de rhétorique : dans les écrits didactiques, la méthode newtonienne de composition donne un « plaisir [...] bien supérieur à celui que l’on tire de la méthode déliée (unconnected) où chaque chose est expliquée pour elle-même sans référence aux autres 89 ». Lecteur attentif de la Théorie des sentiments moraux, Burke ne dira pas autre chose. La méthode newtonienne est-elle praticable en morale ? Smith y parvient-il vraiment ? Toute jalousie mise à part (mais ce n’est pas si simple), la Théorie, qui paraît si bien accomplir son ambition, soulève tout de même quelques objections. La plus importante vient de Hume lui-même, au détour d’un reproche qui en dit long (« [...] vous ne devriez pas être si absorbé par votre livre au point de ne jamais mentionner le mien ») 90 : « Je regrette que vous n’ayez pas apporté la preuve détaillée que toutes les sortes de sympathie sont nécessairement agréables. [...] Il est évident qu’un homme de mauvaise humeur, fatigué et dégoûté de tout, toujours ennuyé [en français dans le texte], un homme maladif et qui se plaint, jette un froid sur la compagnie. Ce qui s’explique, je suppose, par la sympathie. Mais alors cette sympathie est désagréable. » La vue d’un homme qui se plaint et qui souffre, ajoute Hume, est désagréable parce que la sympathie nous fait partager son sentiment, son état : comment Smith peut-il alors prétendre, contre l’évidence, que tout effet de sympathie est agréable ? D’autant qu’il semble soutenir ailleurs une idée contraire à la première : « Vous dites expressément qu’il est pénible de partager la douleur et que cela se fait toujours à regret. » Voilà qui nécessiterait, au sens fort du terme, une explication : « Il me semble que vous devriez modifier ou expliquer ce sentiment, et le réconcilier avec votre système. » Avec sa tranquille assurance, la réponse de Smith dut être déroutante : sans changer une ligne à son texte, il se contente d’une note en bas de page dans la seconde édition (1761). Pour éviter toute confusion, dit-il, 87. J. C. BRYCE, introd. à Lectures on rhetoric and belles-lettres, in SMITH, vol. IV, p. 24. 88. History of astronomy, in SMITH, vol. III, p. 104. 89. Lectures on rhetoric and belles-lettres, in SMITH, vol. IV, p. 146. 90. Hume vient de publier son History of England. Les extraits de Hume sont tirés de sa lettre du 28 juillet 1759, in The Correspondence of Adam Smith, in SMITH, vol. VI, p. 43. F. LEFEBVRE : LA VERTU DES IMAGES 65 il faut bien distinguer entre : 1o le sentiment sympathique proprement dit, qui « peut être agréable ou désagréable suivant la nature de l’affection originelle qui l’a fait naître », puisqu’il en conserve « toujours, à quelques égards », le caractère ; 2o un autre sentiment, toujours agréable, voire délicieux, qui se forme dans l’âme du spectateur en « observant la parfaite coïncidence [...] entre l’affection sympathique qu’il éprouve et l’affection originelle de la personne intéressée » 91, et qu’on appelle le « plaisir de la sympathie réciproque 92 ». Pour Smith, tout est clair, et l’incident est clos : « Je crois que je lui ai infligé une défaite totale » (I think I have entirely discomfitted him), confie-t-il au moment de donner sa réponse 93. Dans l’état le plus avancé de la recherche aujourd’hui, nous ressemblons trop souvent à Hume : nous ne comprenons pas ce petit quelque chose qui donne aux yeux de Smith tout son sens à sa Théorie. Parce que nous peinons à lire le livre aussi bien que Burke : tout simplement dans l’ordre des chapitres et des parties, comme le voulait Smith ; et surtout dans les deux premières éditions (1759 et 1761) plutôt que dans la sixième (1790), qui éloigne le livre de son projet initial 94. Pour respecter la chaîne des raisonnements liés entre eux, depuis le premier des principes (la sympathie) jusqu’au dernier des phénomènes (la variation des « caractères » nationaux). On cherchera donc d’abord dans la lecture la cohérence d’un système : un système où les métaphores de la physique et de l’optique se recoupent et rivalisent d’efficacité (comme ces deux sciences chez Newton). Mais cette lecture ne sera possible que si l’on restaure, dans le même temps, le contexte concret qui donne un sens autre que logique à ce système : non pas seulement comment Smith raisonne, mais, en premier lieu, de quoi il parle. La sympathie envers la joie et la peine : c’est la question qui sépare Hume et Smith, et donne à celui-ci son air de supériorité. Plus que jamais maître de rhétorique, Smith prend bien soin d’exposer en avant l’idée commune, l’observation évidente qui veut que « notre tendance à sympathiser avec la peine doit être très forte, et notre inclination à sympathiser avec la joie très faible 95 », entre autres raisons parce que la peine est une sensation 91. Theory of moral sentiments, I.iii.1.9*, in SMITH, vol. I, p. 46 (C, p. 49). 92. Ibid., I.i.2, in SMITH, vol. I, p. 13 (BGP, p. 32). 93. Lettre du 1er octobre 1759, dans The Correspondence of Adam Smith, in SMITH, vol. VI, p. 49. 94. La nouvelle traduction de Biziou, Gautier et Pradeau reprend malheureusement ce principe (même si elle signale la plupart des modifications apportées lors de la sixième édition). Il manque une véritable édition/traduction qui présenterait séparément le texte de 1761 et les ajouts de 1790. Sur les objectifs spécifiques de Smith dans la sixième édition, voir SHINOHARA, 1993. 95. Theory of moral sentiments, I.iii.1.4, in SMITH, vol. I, p. 44. On trouve cette idée chez Rousseau, p. ex., voir Émile, liv. IV, in ROUSSEAU, 1959-1995, vol. IV, p. 504 : « L’imagination nous met à la place du misérable plutôt qu’à celle de l’homme heureux ; on sent que l’un de ces états nous touche de plus près que l’autre. » 66 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 plus vive que le plaisir, et par conséquent la sympathie pour la peine une « perception plus forte et plus distincte » que la sympathie pour la joie 96. Mais il ajoute aussitôt, dans un retournement dramatique : « En dépit de ce préjugé, j’oserai cependant affirmer (I will venture to affirm) que notre inclination à sympathiser avec la joie, lorsqu’elle n’est contrariée par aucun sentiment d’envie, est plus forte que notre inclination à sympathiser avec la peine 97. » Comment justifier cette audace ? Par une asymétrie naturelle, un fait d’expérience, qui situe l’état ordinaire de l’homme, c’est-à-dire le spectateur ordinaire, beaucoup plus près de la joie que de la peine : « L’adversité [...] abat (depresses) l’âme de celui qui souffre beaucoup plus endessous de son état naturel que la prospérité ne peut l’élever au-dessus. Le spectateur aura donc beaucoup plus de difficulté à sympathiser entièrement [...] avec son chagrin que de partager sincèrement sa joie : il doit s’éloigner (depart) beaucoup plus de son propre état d’esprit naturel dans un cas que dans l’autre 98. » Selon un principe attribué aux stoïciens (Smith évoque bientôt la mort de Caton, dans le récit de Sénèque 99), l’état naturel de bonheur, celui de l’« homme qui est en bonne santé, sans dette, et qui a une conscience claire », est pratiquement égal pour tous, puisque séparé du niveau le plus élevé de bonheur par un écart « infime » 100. C’est donc là que se trouve le spectateur dans la Théorie : tout près de la joie. En se tournant maintenant de l’autre côté, vers la peine, on constate au contraire qu’entre l’état naturel du spectateur et le point le plus bas de la misère, « la distance est immense et prodigieuse 101 ». Nous sommes « conscients qu’il y a un intervalle bien plus grand dans un cas que dans l’autre 102 ». Ainsi cette différence de distance vient-elle compenser la différence inverse des intensités. 97. Ibid., I.iii.1.4-5, in SMITH, vol. I, p. 44-45. 98. Ibid., I.iii.1.8, in SMITH, vol. I, p. 45. 99. Ibid., I.iii.1.13, in SMITH, vol. I, p. 48. 100. Ibid., I.iii.1.7-8, in SMITH, vol. I, p. 45 (BGP, p. 85-86). 101. Ibid., I.iii.1.8, in SMITH, vol. I, p. 45. 102. Ibid., I.iii.1.6, in SMITH, vol. I, p. 45. 103. Ibid., I.iii.1.11-12, in SMITH, vol. I, p. 47 (BGP, p. 87). F. LEFEBVRE : LA VERTU DES IMAGES 67 La relation agent/objet/spectateur est donc inscrite dans un espace, dans un jeu de distances, où les métaphores de la vision et du déplacement jouent le premier rôle 104. Mais de quel espace s’agit-il ? D’un espace purement mental, imaginaire ou, au contraire, d’un espace qui conserve une dimension physique, sensible ? Il faut insister ici à nouveau sur l’écart entre Smith et Hume. Confondant espace physique (géographique) et espace imaginaire (des relations), Hume développe dans son Traité de la nature humaine (1739) la métaphore courante de la distance affective (sans y penser, nous nous disons plus proches de nos amis et plus éloignés de simples relations) : « [...] les hommes sont en grande part gouvernés par l’intérêt », leur préoccupation ne va jamais « très loin [...] au-delà d’eux-mêmes », si bien que « dans la vie courante, il ne leur est pas habituel de regarder plus loin que leurs amis et leurs relations les plus proches ». Comme nous éprouvons davantage de sympathie pour nos voisins que pour nos compatriotes, pour nos compatriotes que pour des étrangers, nous avons besoin d’une éducation morale qui vienne s’opposer à cette tendance, qui nous apprenne la raison et sa conduite impartiale, « fondée sur quelque vue lointaine et réflexion distante 105 ». Au contraire, en développant, à partir de An essay towards a new theory of vision de George Berkeley (1709), une autre métaphore, celle de l’« œil de l’esprit » (eye of the mind), Smith situe la relation entre agent et spectateur dans un espace entièrement imaginaire. L’œil de l’esprit analogue à l’œil du corps, cela veut dire qu’à l’intérieur de notre conscience certains objets sont plus ou moins faciles à penser, comme s’ils étaient plus ou moins éloignés, donc plus ou moins faciles à voir : par exemple, l’idée d’une prison nous déplaît, parce que l’effet immédiat de la prison (le « confinement des malheureux qui y sont enfermés ») est désagréable, alors que ses « effets éloignés », qui sont utiles à la société, ne sont pas pris en compte, car « l’imagination ne prend pas le temps d’aller jusqu’à se [les] représenter » ou « les voit à une trop grande distance pour en être très affectée » 106. Mais cet effet d’éloignement ne concerne pas la plus ou moins grande familiarité entre agent et spectateur. La sympathie de Smith se veut universelle, sans distinction d’amitié ou de relation, parce que sans distinction d’intérêt. Comme la conversation en société, ou la conversation 104. Il faut souligner que Smith, qui a critiqué le style métaphorique dans ses cours de rhétorique, atténue fréquemment ses métaphores en employant les expressions consacrées « as it were », « if I may say so », équivalentes du « pour ainsi dire » recommandé par Du Marsais dans son Traité des tropes, voir Encyclopédie, article « Métaphore ». 105. HUME, 1993, liv. III 2 7, p. 143 et liv. III 3 1, p. 205. 106. Theory of moral sentiments, I.ii.3.4, in SMITH, vol. I, p. 35 (BGP, p. 69). Sur l’influence de Berkeley sur la théorie optique de Smith, énoncée dans Of the external senses, in SMITH, vol. III, voir ROSS, 1995, p. 76-77 et 412. 68 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 de club, son modèle implicite, elle dessine un espace de relations abstraites entre inconnus, mis à égalité pour un temps, le temps du loisir 107. Bien sûr, on pourra reprocher à Smith d’exclure de son système rien moins que... les femmes, les larmes, les sauvages, les courtisans français, les Grands, les Italiens, les miséreux, les sages, les solitaires, les mondains, les opinions sur les sciences et les arts, les passions du corps, l’amour ! La sympathie ne s’applique en réalité à aucun de ces cas de figure 108 ! La Théorie n’est donc pas universelle, comme elle le prétend, même si elle s’appuie sur une sorte d’homme universel (de même que l’Émile de Rousseau met en scène un « homme abstrait », représentant « la condition humaine » 109) : un « homme privé » ou homme ordinaire, sain d’esprit, etc. 110. Une figure, un idéal, quelque chose comme l’aurea mediocritas d’Horace (l’heureuse médiocrité), pour autant que Smith le croit incarné dans son public et en lui-même (dans la limite de sa propre tendance à la mélancolie) : un idéal à l’opposé de l’extravagance d’un Samuel Johnson, son ennemi intime, capable de tomber en prière au milieu d’un dîner en ville pour se faire remarquer 111. Mais le propos de Smith n’est pas désincarné pour autant. Il parle de reconnaissance, de bonté, de jalousie, de colère et de toutes sortes de sentiments bien réels. Il donne des exemples, brosse des portraits dignes d’un traité des caractères : le parvenu, le petitmaître (coxcomb), l’officier, le brigand, etc. Il fait varier les rangs, les conditions, les classes, les âges, les coutumes (nationales), mais aussi les circonstances de la rencontre (à ne pas confondre avec les conditions sociales). Ce qu’il appelle « société » n’est donc pas un concept philo107. La Richesse des nations et la Théorie des sentiments moraux ne sont donc pas en contradiction, comme le pensaient les historiens allemands à la fin du XIXe siècle, puisqu’ils ne font que théoriser deux moments différents de la vie du bourgeois : le travail du jour et son principe d’intérêt ; le loisir du soir (la conversation, le club, le cercle, etc.) et ses règles de convenance et de sympathie. L’interprétation dominante en France aujourd’hui considère l’intérêt comme une modalité de la sympathie, manière élégante mais inutile de résoudre le fameux « Problème Adam Smith ». Il faudrait plutôt dire que la sympathie est le loisir de l’intérêt. 108. Comme le soulignent Biziou, Gautier et Pradeau, Smith écrit pour un public masculin : à la différence de l’homme, la femme fait preuve naturellement d’« humanité », sentiment qui ne demande « aucune abnégation, aucune maîtrise de soi, aucun usage remarquable du sens de la convenance », et qui ne rentre donc pas dans le système de la Théorie, voir Theory of moral sentiments, IV.2.10, in SMITH, vol. I, p. 191 (BGP, p. 265). De la même manière, le sauvage, vivant « dans un danger continuel », « ne compte sur aucune sympathie », « de quelque nature que soit sa douleur », voir ibid., V.2.9, in SMITH, vol. I, p. 205 (C, p. 238). De la même manière, Smith donne une raison logique pour chaque catégorie qu’il exclut de son système. 109. Émile, liv. I, in ROUSSEAU, 1959-1995, vol. IV, p. 252. 110. Theory of moral sentiments, I.iii.2.5, in SMITH, vol. I, p. 55. 111. Voir ROSS, 1995, p. 335. Smith a fait la critique du Dictionnaire de la langue anglaise de Samuel Johnson dans l’Edinburgh Review, in SMITH, vol. III, p. 232-233. F. LEFEBVRE : LA VERTU DES IMAGES 69 sophique mais un monde bien réel, qui doit respecter, avant toute chose, la politesse et la civilité, comme si ses lois décalquaient les lois de la conversation, comme si la société civile était formée de compagnies ou d’assemblées de compagnons, dont la réunion reste problématique 112. Ainsi, parce que « la moitié de l’humanité » manque de la « réserve nécessaire lorsque l’on parle de ses amis » ou « de ses études », « un philosophe ne fait bonne compagnie qu’à un autre philosophe, et le membre d’un club qu’à son petit noyau de compagnons » 113 ! À l’intérieur de la littérature plus ou moins fantaisiste des caractères et des coutumes, dans le vaste domaine des traités de civilité et de morale, Smith veut seulement parler de ce qu’il connaît à des auditeurs (et bientôt à des lecteurs) qu’il connaît : des hommes, des bourgeois, des Écossais, des membres de divers clubs (ces clubs qu’il a beaucoup fréquentés lui-même). De même que l’admirable système de Newton reposait en réalité sur le phénomène le plus familier (la gravité à la surface de la Terre), la Théorie des sentiments moraux se veut le plus « philosophique 114 » des systèmes moraux, appuyé sur les réalités les plus familières pour un bourgeois de 1760 : la grande affaire des conditions, des sentiments et du bonheur, sanctionnée par l’impitoyable ridicule 115. Sa matière est la matière des romans et du théâtre de son temps, sans être en avance sur lui (Smith est plus proche d’Oliver Goldsmith ou de Samuel Richardson que de Henry Fielding, plus proche de Marivaux et Crébillon — qu’il admire — que du drame bourgeois de Diderot) 116. Son ambition reste profondément classique : là où Hume cherche à étudier la succession rapide 112. Theory of moral sentiments, III.5.2, in SMITH, vol. I, p. 163 ; I.i.4.5, in SMITH, vol. I, p. 21 ; I.ii.4.3, in SMITH, vol. I, p. 40. Les mots « compagnie » et « compagnon » sont employés à plusieurs reprises dans la partie I : Theory of moral sentiments, in SMITH, vol. I, p. 20, 23, 27, 34, 41, 42 et 47. 113. Theory of moral sentiments, I.ii.2.6, in SMITH, vol. I, p. 34. 114. Voir History of astronomy, in SMITH, vol. III, p. 98 et 104 ; Lectures on rhetoric and belles-lettres, in SMITH, vol. IV, p. 146. 115. Dans les deux premières éditions, le véritable obstacle à la sympathie n’est pas l’envie, comme le suppose Jean-Pierre Dupuy, in DUPUY, 1992, mais le ridicule, avec tous ses attributs : le rire, la moquerie, la dérision, le mépris, l’humiliation. Sujet à la mode, élevé au rang de problème philosophique (l’Académie française en a fait son sujet de concours en 1753 : « Si la crainte du ridicule étouffe plus de talents et de vertus qu’elle ne corrige de vices et de défauts »), le ridicule est un passage obligé du cours de rhétorique de Smith, autour de Lucien de Samosate et de Jonathan Swift, qui à eux deux « ont formé un système complet du ridicule », c’est-à-dire un « système de morale dont on peut tirer des règles de vie plus saines et plus justes que de la plupart des systèmes de morale établis », voir Lectures on rhetoric and belles-lettres, in SMITH, vol. IV, p. 124 et 50-51. Sur l’importance du ridicule et le rôle marginal de l’envie, voir LEFEBVRE, 1998a, p. 338-343 et 366-369. 116. En opposant Richardson à Fielding, on souligne généralement que l’idéologie dite « bourgeoise » des romans de Richardson reste en réalité conforme à une hiérarchie sociale inégalitaire et aristocratique dans son esprit, voir GUNN, 1997. Dans la sixième édition, Smith conseillera de lire « les poètes et les romanciers qui ont le mieux peint l’amour, l’amitié, les affections privées et domestiques, comme Racine, Voltaire, Richardson, Marivaux et Riccoboni », voir Theory of moral sentiments, III.3.14, in SMITH, vol. I, p. 143. Les écrits esthétiques de Smith sont maintenant bien connus en France, mais le lien avec la Théorie des senti- 70 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 des passions dans l’esprit (et fonde la psychologie moderne de l’association), Smith s’appuie encore sur le vocabulaire classique des sentiments, considérés pour ce qui les distingue (par exemple : la bonté, le ressentiment et la joie n’ont pas les mêmes propriétés vis-à-vis de la sympathie) 117. C’est parce que l’esprit fonctionne comme la vision que l’on sympathise plus avec la joie, et « c’est parce que les hommes sont plus disposés à sympathiser complètement avec notre joie qu’avec nos chagrins, que nous faisons parade de nos richesses, et que nous dissimulons notre pauvreté 118 », principe garant de l’ordre social. Ainsi s’articulent en système les trois chapitres de la première partie de la Théorie, elle-même fondation du livre : principe de convenance (propriety) ; catalogue des passions ; distinction des rangs. Ce sont les variations d’échelle de la vision, définies par les lois de la perspective (la grandeur apparente d’un objet diminue en raison inverse de sa distance), qui définissent le personnage du spectateur, et son jumeau le « spectateur impartial », personnification de notre conscience morale, explicitement comparé à la position qu’il faut adopter pour voir plusieurs objets en perspective et rétablir les vraies grandeurs des choses : « Comme, devant l’œil du corps, les objets apparaissent grands ou petits non pas selon leurs dimensions réelles, mais plutôt selon leur proximité ou leur distance, ils font de même devant ce qu’on peut appeler l’œil naturel de l’esprit : et l’on remédie aux défauts de ces deux organes exactement de la même manière. Dans la position où je me trouve actuellement, un paysage immense, couvert de bois, de montagnes lointaines, semble n’occuper que le petit espace de la fenêtre devant laquelle j’écris ; il semble être hors de toute proportion avec la chambre où je suis. Le seul moyen que j’aie pour comparer les petits objets qui sont autour de moi et ces grands objets éloignés, est de me transporter, au moins par l’imagination, dans une autre position, d’où je pourrai tous les voir à peu près de la même distance et par conséquent juger leurs véritables proportions. L’habitude et l’expérience m’ont appris à le faire si facilement et si spontanément que je suis à peine conscient de le faire. « De la même manière, suivant les passions égoïstes et originelles de la nature humaine, la perte ou le gain d’un tout petit intérêt à soi apparaît beaucoup plus important, excite une joie ou une peine beaucoup plus passionnée, un bien plus grand désir ou aversion, que le plus grand souci d’une autre personne avec qui nous n’avons pas de lien particulier. Les intérêts de cette personne, aussi longtemps qu’ils sont considérés depuis notre position, ne peuvent jamais être mis en balance avec le nôtre, ne peuvent jamais nous empêcher d’œuvrer par tous les moyens à la promotion du nôtre, aussi ruineux qu’il puisse être pour elle. Avant de pouvoir faire une bonne comparaison de ces intérêts opposés, ments moraux n’est pas encore fait de manière systématique, voir ABOUDRAR, 1998, et CARBONI, 1997. 117. Sur Hume, voir CLÉRO, 1985. 118. Theory of moral sentiments, I.iii.2.1, in SMITH, vol. I, p. 50 (C, p. 53-54). F. LEFEBVRE : LA VERTU DES IMAGES 71 il nous faut changer de position. Nous ne devons les voir, ni de notre position, ni de celle de cette personne, ni avec nos yeux, ni avec les siens, mais de la position et avec les yeux d’une troisième personne, qui n’a pas de lien particulier avec aucun de nous deux et qui juge entre nous avec impartialité. Là encore, l’habitude et l’expérience nous ont appris à faire cela si facilement et si spontanément que nous sommes à peine conscients de le faire 119. » Ainsi la clôture du système, parfaitement voulue, donne à la sympathie un statut analogue à l’attraction chez Newton : premier principe, dont on ne connaît pas la nature, seulement les effets. L’essentiel est donc ailleurs, dans la comparaison parfaitement analogique de l’œil et de l’esprit. En refusant toute sympathie par voisinage physique (une des définitions traditionnelles du mot), en ne mettant en relation que des agents pratiquement inconnus les uns des autres, Smith refuse toute distance affective, toute relation de cause à effet entre l’œil et l’esprit, et peut ainsi prétendre à une véritable analogie, au sens du XVIIIe siècle — jusque dans la reproduction des échelles de distance et des calculs d’optique propres à la perspective. Pourtant, le système semble incomplet : Smith insiste sur le fait que son système de sympathie ne nécessite aucune éducation raisonnée, qu’il fonctionne par apprentissage spontané de la convenance à donner aux sentiments dans la fréquentation des hommes, mais il reste imprécis sur ce phénomène. Tout comme le laisse perplexe, au fond, l’apprentissage par l’œil des règles de la perspective : est-ce « par un instinct particulier, ou bien par une certaine application de la raison ou de l’expérience 120 » ? En se désintéressant de la question, Smith montre, une fois de plus, qu’il est un homme parfaitement cohérent 121. POUR UNE HISTOIRE CONCRÈTE Par un curieux effet qu’on pourrait appeler, comme dans la littérature policière, excès d’évidence, ni Bauclair, ni Berthier, ni aucun contemporain de Rousseau ne reconnaissent la montre dans le Contrat social — pas plus apparemment qu’aucun lecteur ultérieur, même aussi attentif que Joseph de 119. Theory of moral sentiments, III.3.2-3, in SMITH, vol. I, p. 135-136. 120. Of the external senses, in SMITH, vol. III, p. 151. 121. Toujours sûr de son fait, Smith signale lui-même — et justifie par la toute-puissance divine — le passage où son système présente encore une « irrégularité » (comme les systèmes des astronomes avant Newton), voir Theory of moral sentiments, II.iii.3, in SMITH, vol. I, p. 104-108. 72 REVUE DE SYNTHÈSE : 4e S. Nos 1-2, JANVIER-JUIN 2000 Maistre, ou, plus tard, Maurice Halbwachs 122. À partir de la fin du e XVIII siècle, cela s’explique assez bien : la métaphore de la montre a changé de valeur, elle devient comme chez Jules Verne synonyme de perfection, de perfection inhumaine, comme les montres elles-mêmes 123. Le mot est resté le même, mais la chose et l’idée ont basculé de valeur, du bien au mal. Nous ne savons donc plus vraiment ce que nous voulons dire lorsque nous déplorons les... « rouages de l’administration ». Est-ce que nous pensons encore à des roues dentées qui tournent les unes dans les autres à des vitesses différentes ? Ou simplement à une grande machine indistincte dont nous sommes les captifs ? Pour nous, c’est une image à tout faire. Pour Rousseau, cela n’aurait été, au contraire, qu’une « métaphore sans métaphore » : l’extension d’un sens propre, technique, à un autre domaine, où il pensait retrouver des effets comparables de temps, de force, de frottement, de réglage. Autrement dit : une analogie. De la même manière, Smith avance suffisamment masqué pour ne pas laisser prise à la satire : sa « sympathie » a certains attributs de l’attraction newtonienne, mais il se garde bien de le proclamer. Son analogie de l’œil et de l’esprit est contrôlée jusqu’au bout, mais il n’en fait pas davantage de publicité. Il est bien trop prudent (et orgueilleux) pour cela. Tout dépend, alors, de la sagacité des lecteurs (voire des traducteurs, dans le cas de la réception française, par exemple). Kant est un cas intéressant : pseudonewtonien dans sa physique, partisan d’une mesure mathématique de l’esprit en plus ou moins (la fameuse équation des plaisirs et des peines : « 4 a i a p 3 a »), il limite sa conception de ce qu’il appelle l’« insociable sociabilité » des hommes à deux sentiments (la vanité et l’envie) et ne s’intéresse qu’au passage du « point de vue » individuel au « point de vue » du tout, sans s’arrêter au système ternaire agent/objet/spectateur qui faisait la force de Smith. Il transforme donc la métaphore de la vision sociale en une vision impossible, inaccessible à l’homme, celle que l’on pourrait avoir en se plaçant au « point de vue » du soleil 124. Ce n’est pas de ce côté qu’il faudrait chercher la postérité de la Théorie des sentiments moraux (pour autant qu’elle existe), et pas non plus chez Bentham ou chez Cabanis, qui trahissent également le projet de Smith, mais plutôt chez Mme de Staël, en France, ou chez Darwin, en Angleterre 125. 122. Voir MAISTRE, 1991, et ROUSSEAU, 1943. 123. Sur le modèle de la montre chez Jules Verne, voir CHESNEAUX, 1971, p. 35-40, et RAYMOND, 1974. 124. Voir KANT, 1980-1986, vol. I, p. 276 ; Idée d’une histoire universelle au point de vue cosmopolitique, cité in SIMON, 1997, p. 171 ; Le Conflit des facultés, cité in FERRY, 1986, p. 411. Pour une discussion du pseudo-newtonisme de Kant, voir LEFEBVRE, 1998a, p. 460467. 125. Sur le rapport entre sentiments et types de société chez Germaine de Staël, voir REDDY, 1997, p. 338-339. Sur Charles Darwin, admirateur du premier chapitre de la Théorie des sentiments moraux, voir TORT, 1996, p. 4035. F. LEFEBVRE : LA VERTU DES IMAGES 73 Pourquoi s’interroger sur cette postérité ? Parce que les grandes théories sociologiques du XIXe siècle, de Quételet à Durkheim, en passant par Comte et par Spencer, ont hérité, parfois sans le savoir, parfois sans le vouloir, des comparaisons raisonnées familières au XVIIIe siècle : impossible de comprendre le conflit de Comte et de Quételet, par exemple, ou de Tarde et de Durkheim, sans rapporter leurs mots et leurs métaphores aux choses du régulateur, du frottement, de l’équilibre, de la distance ou de l’attraction — en ajoutant, bien sûr, les choses nouvelles, les choses de l’électricité, de la biologie, du magnétisme, bientôt du téléphone, etc. 126. Des choses qui résistent à l’étude, qui font de vrais objets scientifiques 127. Ainsi, lorsque nous employons des expressions comme « les rouages de l’administration » ou « le point de vue sociologique », nous ne faisons pas seulement un déplacement, un acte de métaphore (étymologiquement, un « transport »), mais aussi implicitement une proportion au sens du XVIIIe siècle, une comparaison de chose à chose qui appelle la possibilité de la mesure.
28,979
30/tel.archives-ouvertes.fr-tel-00280134-document.txt_2
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,444
12,778
Geoffrion [GEO 74] et Fisher [FIS 81] ont montré que cette relaxation pouvait être utilisée de manière efficace pour la résolution de (M KP ). De plus, en notant v(LQ ) = min(v(LQ (λ))), on λ≥0 a v(P L) ≥ v(LQ ) et nous avons égalité pour Q = {1,, m}. Pour Q = {1,, m}, notons : (L(λ)) max pt.x + λt (c − W.x), x ∈ {0, 1}n. (II.3) Ce problème a l'avantage d'être très facile à résoudre, avec une complexité de o(n). En effet nous avons : P our j ∈ {1,, n}, si pj − m X λi.wi,j ≥ 0, x∗j (λ) = 1, sinon x∗j (λ) = 0 et i=1 n X v(L(λ)) = j=1 II.2.3 m X (pj − λi.wi,j ).x∗j (λ). i=1 La relaxation surrogate ou agrégée Une autre solution approchée peut être déterminée par la résolution du sac à dos unidimensionnel obtenu par la relaxation surrogate de (MKP), notée (S(μ)) introduite pour la première fois par Glover [GLO 65]. La relaxation surrogate consiste à combiner l'ensemble des contraintes en une seule de la manière suivante : où μ t = (μ1,..., μ m ) ≥ 0 .  max pt.x, (S(μ)) s.c. μt.W.x ≤ μt.c, x ∈ {0, 1}n, ( II.4) Cette relaxation a fait l'objet de nombreuses études afin de proposer des méthodes de calcul du multiplicateur et son utilisation pour la résolution du problème (M KP ). On notera les travaux de Glover ([GLO 75] et [GLO 68]), Greenberg et Pierskela [GRE 70], Dyer [DYE 80], Gavish et Pirkul [GAV 85], Fréville et Plateau [FRE 93] et plus récemment Osario, Glover et Hammer [OSO 02] et Hanafi et Glover [HAN 07]. 32 En notant, le problème dual, v(S) = min{v(S(μ))}, Greenberg and Pierskalla [GRE 70] ont μ≥0 montré que dans tous les cas nous avons v(P L) ≥ v(S) et que l'inégalité stricte apparaı̂t le plus souvent. II.2.4 La relaxation surrogate continue Une autre solution approchée, moins bonne que les deux précédentes mais peu coûteuse en calcul, est donnée par résolution du problème relâché, noté S(μ) :  max pt.x, s.c. μt.W.x ≤ μt.c, (S(μ)) x ∈ [0, 1]n, (II.5) où μt = (μ1,..., μm ), μi ≥ 0 pour i ∈ {0,, m}. (S(μ)) peut être résolu via la méthode de Dantzig [DAN 57] : Algorithme II.1 Algorithme de Dantzig : Si les données sont classées selon : p1 pj pn ≥ ≥ t j ≥ ≥ t n, μt.W 1 μ.W μ.W La solution x̄ de (S(μ)) est : – xj = 1 pour j ∈ {1,..., k − 1}, – xj = 0 pour j ∈ {k + 1,..., n} et c̄ – xk = μt.W k, avec k = max{j | j−1 X μt.W p ≤ c} et c̄ = c − p=1 k−1 X μt.W j. j=1 k correspond à l'indice de la variable de base. Martello et Toth [MAR 90] ont proposé une évolution de cet algorithme afin d'obtenir un meilleur majorant de la valeur optimale du problème (M KP ). Ils fixent la variable de base xk à 1, puis à 0, les deux sous-problèmes résultants sont résolus par l'algorithme précédent et la plus petite valeur de la fonction objectif obtenue est conservée. En notant, v(S) = min{v(S(μ))}, d'aprés Glover [GLO 75] nous avons v(P L) = v(S). μ≥0 II.2.5 La relaxation Composite La relaxation composite est la combinaison de la relaxation lagrangienne et de la relaxation surrogate. Elle fut introduite par Greenberg and Pierskalla [GRE 70] :  n X    max pj.xj + λt.(c − W.x), j=1 (C(λ, μ)) (II.6) t.W.x ≤ μt.c,  s.c. μ   xj ∈ {0, 1} pour j ∈ {1,..., n}. II.3. Les méthodes de réduction On note v(C) = 33 min {v(C(λ, μ))}. La relaxation lagrangienne (L) et la relaxation surrogate λ≥0,μ≥0 (S) sont clairement des cas particuliers de la relaxation composite. Nous avons donc, v(L) ≥ v(C) et v(S) ≥ v(C). Crama et Mazzola [CRA 94] ont montré que : v(P L) − max {pj } ≤ v(C(λ, μ)) et j∈{1,,n} 1.v(P L) ≤ v(C(λ, μ)). 2 (II.7) Autrement dit, la relaxation composite et donc les relaxations lagrangienne et surrogate ne peuvent améliorer la borne de (P L) plus que pmax, le plus grand profit de la fonction objectif. Hanafi et Fréville [HAN 00] ont proposé une méthode de résolution pour la relaxation composite. II.2.6 Choix des multiplicateurs L'utilisation de ces différentes méthodes de relaxation nécessite le calcul des multiplicateurs. Un multiplicateur μ est dit meilleur que le multiplicateur μ′ lorsqu'il fournit une meilleure borne supérieure de la valeur optimale. Autrement dit, le multiplicateur optimal est celui qui minimise la borne supérieure. Les multiplicateurs optimaux sont obtenus par résolution des problèmes duaux : – min{v(L(λ))} = v(L) dans le cas d'une relaxation lagrangienne, λ≥0 – min{v(S(μ))} = v(S) dans le cas d'une relaxation surrogate, μ≥0 – min {v(S(μ))} = v(S) dans le cas d'une relaxation surrogate continue, μ ∈≥ 0 – min {v (C(λ, μ ))} = v(C) dans le cas d'une relaxation Composite. λ≥0,μ≥0 Nous avons la relation suivante entre le bornes des problèmes duaux : v(M KP ) ≤ v(C) ≤ v( S) ≤ v(L ) = v(P L) = v(S). II.3 (II.8) Les méthodes de réduction Les méthodes présentées ici essaient à travers différentes techniques de diminuer la complexité de résolution du problème du sac à dos. Deux approches sont abordées : – la réduction de la taille du problème (c'est-à-dire le nombre de variables et de contraintes du problème), car la complexité des algorithmes de résolution y est souvent liée, – la réduction du domaine de définition de l'ensemble des solutions réalisables en continu, ce qui permet notamment l'amélioration de la qualité des bornes calculées. Pour la première approche, Fréville et Plateau [FRE 94] ont proposé un ensemble de méthodes efficaces pour la réduction de la taille du problème. Ces méthodes, dont les performances sont liées à la qualité de l'estimation d'une borne inférieure, s'accompagnent de l'heuristique AGNES (voir page 41). En ce qui concerne la deuxième approche, les méthodes de rotation de contraintes, introduites par Kianfar [KIA 71], permettent de modifier les contraintes originales du problème afin de resserrer le domaine continu sur l'ensemble des solutions entières admissibles. 34 Une autre méthode très utilisée pour réduire le domaine de définition des solutions en continu est l'utilisation des méthodes de coupes. Ces méthodes sont aujourd'hui largement utilisées dans les solveurs industriels tel que CPLEX ou XPRES. Ici, le principe est basé sur l'ajout de contraintes additionnelles afin d'éliminer des solutions non-entières. Ces coupes sont généralement issues de l'analyse du dernier tableau de la méthode du simplexe, obtenu par la résolution de la relaxation continue de (M KP ). Si une solution non-entière est obtenue, des coupes peuvent être ajoutées afin d'éliminer cette solution du domaine continu et d'essayer de faire converger la valeur optimale en continu vers la valeur optimale en , voir même d'obtenir une solution entière, dans ce cas la valeur optimale en continu est aussi optimale en discret. Les méthodes de coupes nécessitent souvent une grande précision de calcul, nous nous sommes donc, pour l'instant, peu intéressés à ces méthodes, et nous ne nous étendrons pas plus sur elles. On peut citer notamment les travaux de Gomory [GOM 58] [GOM 63], de Cook, Kannan et Schrijver [COO 90], de Nemhauser et Wolsey [NEM 88] [NEM 90], de Balas, Ceria et Cornuéjols [BAL 93], de Cornuejols, Li et Vandenbussche [COR 03], de Andersen, Cornuejols et Li [AND 05] et de Cornuejols [COR 07]. II.3.1 Les techniques de fixations de variables Ces méthodes permettent de fixer de façon définitive certaines variables à 0 ou à 1. Réductions à partir des bornes supérieures A chaque variable xj (j ∈ {1,., n}), on associe deux bornes supérieures, à savoir : – v(xj = 1), un majorant de la valeur optimale de (M KP ) lorsque xj est fixé à 1, – v(xj = 0), un majorant de la valeur optimale de (M KP ) lorsque xj est fixé à 0. Notons alors v un minorant de la valeur optimale du problème (M KP ), et xt = (x1,., xn ), la solution associée. Nous avons donc le schéma de réduction suivant : Proposition II.1 - Réduction de variable 1 : Pour j ∈ {1,., n}, – si v(xj = 0) ≤ v, alors on peut fixer xj à 1, – si v(xj = 1) ≤ v, alors on peut fixer xj à 0. Le calcul de ces bornes supérieures peut se faire au travers d'une méthode de relaxation, sachant que la relaxation continue présente un avantage du point de vue de temps de résolution du fait de l'utilisation de la méthode du simplexe. De plus, on peut noter ici que pour un problème (M KP ) donné, si on souhaite intégrer cette méthode de réduction à un algorithme de résolution tel que le branch-and-bound, nous devons calculer 2.n bornes supérieures, ce qui peut représenter des temps de calcul non négligeables. Afin d'essayer d'optimiser cette étape, nous pouvons remarquer la chose suivante : Soit v, une borne supérieure du problème (M KP ), et xt = (x1,., xn ), la solution associée. Notons alors J1 = {j ∈ {1,, n} | xj = 1} et J0 = {j ∈ {1,, n} | xj = 0}. Alors, nous avons : – pour j ∈ J1, v(xj = 1) = v et – pour j ∈ J0, v( xj = 0) = v . Ce qui donne (2. n − |J 1 | − |J0 | + 1) bornes supérieures à calculer . II.3. Les méthodes de réduction 35 Réductions à partir des profits réduits Cette méthode se base sur la résolution exacte de la relaxation continue (II.1) de (M KP ) par la méthode du simplexe. (II.9) Ce qui peut se noter sous forme matricielle :  max p̃t.x̃, (P L) s.c. W̃.x̃ = c̃, x̃ ≥ 0, avec :    x̃ =   x e1. en+m W̃ =        , p̃ =    W 1n p 0. 0 1m O(n,m)  (II.10)      , c̃ =    O(m,n) 1n c 1. 1     et , où : – 1m et 1n représentent les matrices unités de dimension respective m × m et n × n, – O(m,n), la matrice nulle de dimension m × n et – O(n,m), la matrice nulle de dimension n × m. Si l'on note alors x̃B, les variables de bases, et x̃H, les variables hors-bases, auxquelles on associe les vecteurs profits correspondants, p̃B et p̃H, ainsi que les matrices de poids, W̃B et W̃H, nous pouvons écrire (II.10) sous la forme :  max p̃tB.x̃B + p̃tH.x̃H, (P L) s.c. W̃B.x̃B + W̃H.x̃H = c̃, x̃ ≥ 0.  −1 −1 max p̃tB.W̃B.c̃ + (p̃tH − p̃tB.W̃B.W̃H ).x̃H, ⇔ (P L) s.c. x̃B + W̃B−1.W̃H.x̃H = W̃B−1 .c̃, x̃ ≥ 0. (II.11) On définit alors pred = (pred1,, predn )t, le vecteur des profits réduits associé à la variable de décision x, par : pred = (p̃tH − p̃tB.W̃B−1.W̃H ). (II.12) 36 Remarque: Le profit réduit associé à une variable de base vaut 0. Reprenons alors les notations précédentes, à savoir, v, une borne supérieure du problème (M KP ) qui correspond à la valeur optimale du problème (P L) (équation II.1), xt = (x1,..., xn ) une solution associée, et v une borne inférieure du problème (M KP ). Nous avons alors le schéma de réduction suivant : Proposition II.2 - Réduction de variable 2 : Pour j ∈ {1,, n}, si xj ∈ {0, 1} et v − |predj | ≤ v, alors on peut fixer de manière définitive xj à xj. II.3.2 Les réductions de contraintes L'objectif ici est d'écarter certaines contraintes redondantes, c'est-à-dire que leur élimination n'altère pas la valeur optimale du problème. Nous détaillons ci-dessous trois méthodes classiques de réduction. Proposition II.3 - Réduction de contraintes 1 : n X Pour i ∈ {1,..., m}, si wi,j ≤ ci, alors la ième contrainte peut être éliminée. j=1 Cette réduction nous permet de nous placer dans le cas de l'hypothèse (h2) vu précédemment (page 20). Proposition II.4 - Réduction de contraintes 2 : Pour i ∈ {1,..., m}, si ∃k ∈ {1,..., i − 1, i + 1,..., m} tel que ∀j ∈ {1,..., n}, wi,j ≤ wk,j et ck ≤ ci, alors la ième contrainte peut être éliminée. En effet, le respect de la contrainte k implique celui de la contrainte j et nous conservons la contrainte la plus forte. Proposition II.5 - Réduction de contraintes 3 : Pour i ∈ {1,..., m}, si ∃k ∈ {1,..., i−1, i+1,..., m} tel que v(Bik ) ≤ ci, alors la ième contrainte peut être éliminée, avec  max Wi.x, s.c. Wk.x ≤ ck, (Bik ) x ∈ {0, 1}n. Ce test est un peu plus coûteuse en temps de calcul que les précédents car il nécessite la résolution exacte de problèmes du sac à dos à une contrainte. On pourrait éventuellement estim er à chaque fois qu'une borne supérieure pour (Bik ), mais on dégraderait les performances de cette méthode de réduction. II.3.3 L'algorithme RAMBO L'algorithme RAMBO (Reduction algorithm for the Multidimenssional Binary variables Optimization problem) de Fréville et Plateau [FRE 94] est constitué d'un ensemble d'étapes successives visant à réduire efficacement la taille du problème. Ces différentes étapes sont : II.3. Les méthodes de réduction 37 – Étape 1 : bonne formulation du problème, – Étape 2 : réduction de variables, – Étape 3 : élimination de contraintes. Ils reprennent une partie des méthodes présentées précédemment. Étape 1 : bonne formulation du problème Cette première étape vérifie simplement la bonne formulation du problème à savoir :  n X  ∀i ∈ {1,, m}, max {w } ≤ c ≤ wi,j, i,j i j∈{1,,n} j=1  ∀j ∈ {1,, n}, ∃i ∈ {1,, n} tel que wi,j 6= 0. (II.13) On effectue pour cela les tests suivants : [R1] ∀j ∈ {1,, n}, si ∃i ∈ {1,, m} tel que wi,j > ci, alors xj = 0, [R2] ∀i ∈ {1,, m}, si n X wi,j ≤ ci, alors la contrainte i peut − être éliminée, j=1 [R3] ∀j ∈ {1,, n}, si ∀i ∈ {1,, m} wi,j = 0, alors xj = 1. La deuxième partie de cette étape vise à remplacer les contraintes originales par des contraintes plus fortes, c'est-à-dire définissants un domaine contenant les mêmes solutions entières avec moins de solutions réelles (Bragley, Hammer et Wolsey [BRA 74]) : [R4] ∀i ∈ {1, , m}, si ci ≥ que, ∀k ∈ Ki, wi,k ≥ δi = n X j=1 n X wi,j − max {wi,j }, on déf init alors Ki ⊆ N = {1,, n} tel j∈{1,,n} wi,j − ci. j=1 Si Ki 6= ∅, alors la contrainte i doit être remplacée par : X X xj + wi,j.xj ≤ (|Ki | − 1).δi + δi. j∈Ki j∈N −Ki X wi,j. j∈N −Ki Ce dernier test a une complexité temporelle de O(m.n ). Étape 2 : réduction de variables Cette étape se base sur la proposition II.1. Son efficacité est fortement liée à la qualité de la borne inférieure, mais aussi à celle de la borne supérieure. Les bornes supérieures vont être estimées avec une complexité de plus en plus importante afin de réduire un maximum de variables. On considère la relaxation surrogate (S(μ)) de (M KP ), que l'on notera par souci de simplification : (S(μ)) : max pt.x s.c. a.x ≤ a0, x ∈ {0, 1} n , avec a = μt.W et a0 = μt . c. μ est calculé via un algorithme subgradient. Il est initialisé par un multiplicateur quelconque. Itérativement, l'algorithme essaie d'améliorer ce multiplicateur afin de converger vers un multiplicateur optimal. Pour cela, (S(μ)) est résolu de façon exacte et le multiplicateur μ est perturbé 38 en fonction des contraintes violées et des contraintes respectées, puis on résout à nouveau la nouvelle relaxation et ainsi de suite. L'algorithme s'arrête lorsque v(S(μ)) ne décroı̂t plus (voir l'algorithme III.3, page 77). Le premier test se base sur la relaxation lagrangienne (L(λ)), λ ∈ R, de (S(μ)). D'après les résultats de Hammer, Padberg et Peled [HAM 75], pour fixer une variable xj à partir de (L(λ)), il suffit de prendre λ ∈ Λ : pj Λ= | j ∈ {1,, n}. aj On note : – (S(μ)), la relaxation continue de (S(μ)), – j ∗ l'indice de base de (S(μ)) définit par la méthode de Dantzig et – v(M KP ) une borne inférieure de (M KP ). Un multiplicateur optimal de la relaxation lagrangienne de (S(μ)) est alors défini par λj ∗ = pj ∗ aj ∗. Le test V1 s'énonce alors comme suit : [V1] ∀j ∈ {1,, n}, j 6= j ∗, si |pj − λj ∗.aj | ≥ v (L(λj ∗ )) − v(M KP ), alors xj = 1, respectivement xj = 0, si pj − λj ∗.aj > 0, respectivement pj − λj ∗.aj < 0. Le test V2 s'intéresse aux autres multiplicateur de lagrange. Cependant, afin de limiter la complexité temporelle qui est O(n2 ), au lieu de considérer λ ∈ Λ, on prendra Λ ∩ [λ0j ∗, λ1j ∗ ] avec : – λ0j ∗ le multiplicateur optimal de la relaxation lagrangienne de (S(μ) | xj ∗ = 0) et – λ1j ∗ le multiplicateur optimal de la relaxation lagrangienne de (S(μ) | xj ∗ = 1). [V2] ∀j ∈ {1,, n}, si ∃i ∈ {1,, n}, i 6= j, tel que pj − λ i .aj ≥ v(L(λi )) − v(M KP ), alors xj = 1, respectivement xj = 0, si pj − λi.aj > 0, respectivement pj − λi.aj < 0. Dans le test V3, les bornes sont améliorées en faisant une séparation sur la variable de base j ∗ : [V3] ∀j ∈ {1,, n}, j 6= j ∗, si ∃(i0, i1 ) ∈ {1,, n}2, tel que : – (pj − λi0.aj ) et (pj − λi1.aj ) ont le même signe, – |pj − λi0.aj | ≥ v(L(λi0 ) | xj ∗ = 0) − v(M KP ) et – |pj − λi1.aj | ≥ v(L(λi1 ) | xj ∗ = 1) − v(M KP ), alors xj = 1, respectivement xj = 0, si le signe est positif, respectivement négatif . En pratique, pour j ∈ {1,, n}, j 6= j ∗, ce test est effectué pour i0 = i∗0 et i1 = i∗1, représentant, respectivement, les indices de base des sous-problèmes (S(μ) | xj ∗ = 0, xj = ǫ) et (S(μ) | xj ∗ = 1, xj = ǫ), ǫ ∈ {0, 1}. i∈{1,,m} Dans un premier temps on s'intéresse à la relaxation continue de (Kk ), (Kk ). k j [C1] Si v((Kk )) ≤ ck, alors la contrainte k peut être éliminée. [C2] Soit xj ∗ lan variable de base de (Kk ) : o si α = max ⌊v((Kk | xj ∗ = 0))⌋, ⌊v((Kk | xj ∗ = 1))⌋ ≤ ck, alors la contrainte k peut être éliminée. Si α > ck, mais ⌊v((Kk | xj ∗ = 1 − ǫ))⌋ ≤ ck, avec ǫ ∈ {0, 1}, alors on effectue le test suivant : [C3] Soit xj ∗ (ǫ) la variable de base de (Kk | xj ∗ = ǫ) : n o ∗ ∗ ∗ ∗ si α = max ⌊v((Kk | xj = ǫ, xj (ǫ) = 0))⌋, ⌊v((Kk | xj = ǫ, xj (ǫ) = 0))⌋ ≤ ck, alors la contrainte k peut être éliminée. Le dernier test, C4, résout de façon exacte (Kk ) : [C4] Si v((Kk )) ≤ ck, alors la contrainte k peut être éliminée. II.3.4 La rotation de contraintes Les méthodes de rotation de contraintes (Elkihel et Plateau [ELK 84] [ELK 86a] [ELK 86b], Kianfar [KIA 71], [KIA 76] et Williams [WIL 74]) permettent de reformuler les contraintes d'un problème (M KP ) avec exactement le même ensemble de solutions réalisables. Le but étant de resserrer le domaine continu défini par les contraintes sur le domaine défini par les solutions entières réalisables. Walukkiewicz et Kaliszewski [WAL 76] et Williams [WIL 74] ont montré que la résolution est d'autant plus facile que le domaine de définition est réduit. 40 Cette méthode consiste donc à déplacer les contraintes de (M KP ) de sorte qu'elles passent par au moins autant de points entiers que les originales. Deux approches sont mises en avant : – la rotation sans ajout de contrainte additionnelle : Méthode de Kianfar [KIA 71], – la rotation avec ajout de contrainte additionnelle : Méthode de Elkihel et Plateau [ELK 84] [ELK 86a] [ELK 86b]. Rotation sans contraintes additionnelles [KIA 71] Soit p ∈ {1,, m}, et la pème contrainte Wp.x ≤ cp de (M KP ). La rotation de la pème contraintes de (M KP ) consiste donc à déplacer l'hyperplan Wp.x = cp cp.x = cp ainsi construit satisfasse : afin que le nouvel hyperplan W cp.x = cp }. { x ∈ {0, 1}n | Wp.x = cp } ⊂ {x ∈ {0, 1}n | W (II.14) Soit r ∈ {1,, n }. On va considérer le problème suivant :  n X   + wp,j.xj, max w  p,r      j=1     j 6= r n X (Bpp (xr = 1))  s.c. wp,j.xj ≤ c − wp,r,      j=1     j 6= r   xj ∈ {0, 1}, j ∈ {1,, n}. (II.15) Les poids du nouvel hyperplan sont alors construites itérativement de la manière suivante : w bp,r = wp,r + cp − v(Bpp (xr = 1)). Ainsi si w bp,r > wp,r, le nouvel hyperplan, w bp,r.xr + n X (II.16) wp,j.xj = cp, passe par le nouveau j=1 j 6= r point entier x b = {b x1,, x bn } : x br = 1 et x bj = x∗j pour j ∈ {1,, n} − {r}, avec x∗ une solution optimale de (Bpp (xr = 1)). L'enjeu est alors de choisir une bonne direction pour la rotation à savoir dans quel ordre sera calculé les poids w bp,r. En effet, de cette direction dépendra la qualité de la rotation (voir Elkihel [ELK 84] et Walukiewicz et Kaliszewski [WAL 76]). Rotation avec contraintes additionnelles [ELK 84] [ELK 86a] [ELK 86b] La méthode consiste à faire une rotation avec l'ajout d'une contrainte additionnelle. Elle permet de réduire davantage le domaine de définition de l'ensemble des solutions admissibles de (M KP ). II.4. Les méthodes heuristiques 41 Soit (p, q) ∈ {1,, m}2 et r ∈ {1,, n}. Le principe est ici le même, nous allons effectuer la rotation de la contrainte Wp.x ≤ cp sous la contrainte additionnelle Wq.x ≤ cq. Nous allons donc considérer le problème suivant :  n X    max wp,r + wp,j.xj,      j=1      j 6= r     n  X       wp,j.xj ≤ c − wp,r,      p  j=1 (Bp,q (xr = 1))    j 6= r     s.c. n      X w.x ≤ c − w,     q,j j q,r         j=1        j 6= r   x ∈ {0, 1}, j ∈ {1, , n}. (II.17) j Ainsi, nous construisons de la même manière les poids du nouvel hyperplan : p (xr = 1)). w bp,r (q) = wp,r + cp − v(Bp,q (II.18) La problématique est alors de choisir la contrainte additionnelle q en fonction de la contrainte p sur laquelle nous voulons faire une rotation, à savoir celle qui induira le maximum de déviation. Elkihel et Plateau suggèrent de choisir q tel que :            cq ci 2 2. cos (Wp, Wq ) = min. cos (Wp, Wi ). (II.19) n n X X  ∀i6=p        wq,j wi,j    j=1 II.4 j=1 Les heuristiques proposées seront comparées à des heuristiques de la littérature : – AGNES de Fréville et Plateau [FRE 94] ; – ADP-based heuristics approach de Bertsimas et Demir [BER 02] ; – Simple Multistage Algorithm (SMA) de Hanafi, Fréville et El Abdellaoui [HAN 96]. Notre choix s'est porté sur ces heuristiques pour leurs performances et/ou leur construction proche des heuristiques que nous proposons. Nous allons faire le point sur ces différentes approches. II.4.1 AGNES L' heuristique AGNES de Fréville et Plateau [FRE 94] se base sur différentes méthodes proposées par Glover ([GLO 75] et [GLO 77]). AGNES génère une série de solutions réalisables à partir de différentes techniques exploitant les informations fournies par plusieurs types de contraintes surrogates. 42 L'heuristique est initialisée avec un multiplicateur μ ∈ Rm +. AGNES est décomposée en les étapes suivantes : – AGNES0 génère une première solution par une méthode gloutonne avec les variables classées pj selon les rapports μt.W j décroissants. – AGNES1 construit une solution à partir de la solution optimale x d'une relaxation surrogate continue perturbée Sǫ (μ) : max pt.x s.c. μt.W.x ≤ (1 + ǫ).μt.c et x ∈ [0, 1]n. Les variables j, tel que xj = 1, sont, dans un premier temps, temporairement fixées à 1 et les autres à 0. Si la solution obtenue n'est pas réalisable, une partie des variables fixées à 1 sont libérées par une méthode gloutonne, en se basant sur une procédure décrite par Senju et Toyoda [SEN 68] (voir algorithme II.5, page 46), afin de revenir dans le domaine des solutions réalisables. Les variables qui sont restées à 1 sont définitivement fixées. La procédure est alors réitérée sur le sous-problème défini par les variables libres. Plusieurs solutions sont générées en prenant différentes valeurs de ǫ dans [−0, 2; 0, 2]. – AGNES2 tente de fixer itérativement les variables à partir des profits réduits. La procédure fixe ⌊α.n⌋ variables, α ∈]0, 1[, à partir des profits réduits de la relaxation surrogate continue S(μ) : max pt.x s.c. μt.W.x ≤ μt.c et x ∈ [0, 1]n. Si le profit réduit est positif, respectivement négatif, la variable correspondante est fixée à 1, respectivement à 0. La procédure est alors réitérée sur le sous-problème définie par les libres. Plusieurs solutions sont générées 1 variables 1 1 en prenant différentes valeurs de α dans 3, 4, 5. – AGNES3 est un k-interchange heuristic qui essaye de trouver une meilleure solution parmi les solutions, x,  retournées par les précédentes heuristiques. Cettesolution est recherchée dans X le voisinage x ∈ {0, 1}n |xj − xj | = k, J = {j | xj = 1 }. Afin d'avoir des temps de  j∈J calcul petits k a été fixé à 1 par les auteurs. II.4.2 L'heuristique ADP-BH L'ADP-BH, ADP pour Approximate Dynamic Programming et BH pour Base Heuristics, de Bertsimas et Demir [BER 02] est, comme son nom l'indique, basé sur un algorithme de programmation dynamique. Nos heuristiques étant aussi basées sur le même type d'algorithme, il était intéressant de pouvoir comparer nos résultats avec celui là. Si l'on considère le sous-problème (M KP (k, c′ )) qui comprend les k premières variables de (M KP ) avec la capacité c′ : II.4. Les méthodes heuristiques 43  k X     pj.xj, max    j=1 k (M KP (k, c′ )) X   s.c. wi,j.xj ≤ c′i, ∀i ∈ {1,, m},     j=1  xj ∈ {0, 1}, ∀j ∈ {1,, k}. (II.20) On peut donc établir les deux relations récursives suivantes dans le cadre de la résolution par programmation dynamique pour k ∈ {2,, n} : v(M KP (k, c′ )) = max{v(M KP (k − 1, c′ )), v(M KP (k − 1, c′ − W k )) + pk }, x∗k = argmaxxk ∈{0, 1} {v(M KP (k − 1, c′ − W k.xk )) + pk.xk }. (II.21) (II.22) Cependant, dans l'ADP-BH, au lieu de considérer les valeurs optimales dans l'équation II.22 (v(M KP (k−1, c′ −W k.xk ))), ce qui reviendrait à faire une programmation dynamique classique, Bertsimas et Demir ont utilisé des méthodes approchées pour estimer cette borne. Ce permet alors d'évaluer x∗k à chaque étape k de l'algorithme (équation II.22). Cette étape est appelée Variable assignment. Plusieurs méthodes ont été proposées pour l'évaluation de v(M KP (k − 1, c′ − W k.xk ) : – Dual Gradient Algorithm de Senju et Toyoda [SEN 68] qui construit, à partir d'une solution non-réalisable, une solution réalisable en fixant les variables ayant le plus petit gradient à 0. Le gradient de la variable j est défini comme suit :! n X pj Gj = avec S = wi,k − ci. (W j )t.S k=1 {i∈{ 1 ,,m }} – Primal Gradient Algorithm de Toyoda [TOY 75] qui à partir de la solution nulle (sac à dos vide) fixe itérativement les variables à 1 selon leur gradient décroissant. – Greedy-like Heuristics de Loulou et Michaelides [LOU 79] qui est une variation du Primal Gradient Algorithm avec un gradient plus évolué. – Incremental Heuristic de McCarl, Kochembergs et Wymann [MCC 74] qui est une autre variation du Primal Gradient Algorithm. – Adaptative Fixing proposé par Bertsimas et Demir [BER 02] (voir Algorithme II.3). De plus, afin de diminuer les temps de calcul, en plus de la fixation de variables grâce aux profits réduits (Proposition II.2 page 36), ils autorisent k d'un certain nombre de variables xj j la fixation k où lag-time est un paramètre fixé par avec j ∈ {k − l, k − l + 1,, k + l} avec l = lag−time l'utilisateur. Cette méthode, bien qu'elle a tendance à dégrader la qualité de la borne, permet d'obtenir une borne inférieure de (M KP ) dans des temps de calculs raisonnables. Cette méthode est nommée Lag variable fixing. Algorithme II.2 - ADP-BH Initialisation : k=n, c'=c, F=∅ (indice des variables fixées) ; early-terminaison=false. Appliquer BH sur (MKP(k,c')) et récupérer la solution xBH (k, c′ ) et la borne associée H(k, c′ ) ; Vérifier le critère d'arrêt et mettre à jour early-terminaison ; xBEST = xBH (k, c′ ) et z BEST = H(k, c′ ). Réduire les variables à partir des profits réduits ; F = F ∪ {j ∈ {1,, n} | xj f ixé} et mettre à jour xF = {xj = 0 ou 1 | j ∈ F }. Tant que k > 2 et early-terminaison=false : = xFk ; Si k ∈ F, alors xADP k Sinon : Utiliser Variable assignement pour calculer xADP ; k BEST BEST Mettre à jour x et z ; Vérifier le critère d'arrêt et mettre à jour early-terminaison ; Fixer les variables via la procédure Lag variable fixing et mettre à jour F et xF ; Fin Si ; c′ = c′ − W k.xADP ; k k=k-1 ; Fin Tant que ; Fixer xADP à la solution optimale de M KP (1, c′ ) ; 1 Retourner xBEST et z BEST = H(k, c′ ) ; Le critère d'arrêt utilisé dans l'algorithme II.2 permet de fixer la variable early-terminaison à true ou à false. L'objectif est d'arrêter la procédure avant la fin de l'itération si une solution optimale est détectée. A une étape k de ADP-BH, on considère : – le sous problème M KP (k, c′ ), – xBH (k, c′ ) sa solution par l'heuristique BH, – H(k, c′ ) sa borne associée et – U (k, c′ ) une borne supérieure. Mettre à jour X1 et X0 : C – X1 = X1 ∪ {j | xPj L = 1}, C – X0 = X0 ∪ {j | 0 ≤ xPj L < γ}. C Tant que xP L contient des valeurs fractionnaires : C Résoudre (P LC ) et récupérer sa solution xP L ; C j ∗ = min{j ∈ {1,, n} | 0 < xPj L < 1} ; C C X1 = X1 ∪ {j | xPj L = 1} et X0 = X0 ∪ {j | xPj L = 0} ∪ {j ∗ } ; Fin tant que. AF La solution retournée par l'algorithme est alors xAF = (xAF 1,, xn ) tel que : AF – xj = 1, pour j ∈ X1 et – xAF = 0, pour j ∈ X0. j Les tests numériques menés par Bertsimas et Demir suggèrent que la version de ADP-BH utilisant l'Adaptative Fixing permet d'obtenir les meilleurs résultats non seulement en terme de temps de calcul, mais aussi en ce qui concerne la qualité de la borne. Pour ces tests, le paramètre lag-time a été fixé à 10. C'est cette variante de L'ADP-BH que nous avons retenue. II.4.3 SMA : un algorithme simple multiniveaux Comme AGNES, le Simple Multistage Algorithm combine différentes approches heuristiques. Du fait de sa flexibilité, Hanafi, Fréville et El Abdellaoui [HAN 96] en ont proposé différentes variantes. Cette heuristique commence par, selon la terminologie adoptée sur la recherche Tabou, un processus de diversification. Pour cela, un ensemble de solutions, réalisables ou non, est généré de façon aléatoire, complété par les deux solutions extrêmes, à savoir (0, 0,, 0) et (1, 1,, 1). Cet ensemble est le point de départ pour une recherche au voisinage. La flexibilité de leur heuristique réside dans le fait que plusieurs méthodes de recherche au voisinage peuvent être facilement utilisées telle qu'une méthode gloutonne ou un recuit simulé. 46 Algorithme II.4 - SMA : Générer aléatoirement un ensemble P contenant S chaı̂nes binaires xs ∈ {0, 1}n, s ∈ {1,, S} ; P = P ∪ {x0, xs+1 } avec x0 = (0, 0,, 0) et xs+1 = (1, 1,, 1). x = x0 ; Pour s=0 à S+1 : Si xs est non réalisable, alors Projection(xs ) fin Si ; Local search(xs ) ; Repeated drop add(xs ) ; Si pt.xs > pt.x, alors x = xs fin Si ; Fin Pour. La procédure Projection permet de "projeter" les solutions non réalisables dans l'ensemble des solutions réalisables. Elle est basée sur une méthode gloutonne de Senju et Toyoda [SEN 68]. Algorithme II.5 - Projection(x) : feasible=false ; Calculer ∆ représentant les ressources consommées par x : pour i ∈ {1, , m}, ∆i = n X wi,j.xj − bi ; j=1 Déterminer le sous-ensemble I(x) des contraintes violées par x : I(x) = {i | ∆i > 0, i ∈ {1,, m}}; Tant que feasible=false : n o pj ∗ Choisir j = argmin vj | xj = 1, j ∈ {1,, n} où vj représente un facteur de pénalité X de la variable j, à savoir vj = wi,j.∆i ; i∈I(x) xj ∗ = 0 ; Mettre à jour ∆ : pour i ∈ {1,, m}, ∆i = ∆i − wi,j ∗ ; Mettre à jour I(x) ; Si I(x) = ∅ alors feasible=true fin Si ; Fin Tant que. La procédure Repeated drop add est une procédure d'intensification. Elle essaie d'améliorer la borne obtenue par la recherche au voisinage en utilisant de façon répétée une recherche gloutonne appelée la procédure Add. Cette méthode utilise une relaxation surrogate pour le classement des variables, et nécessite donc le calcul d'un multiplicateur μ qui peut être : – la solution optimale d'un dual du problème (M KP ), – obtenu par un calcul direct proposé par Fréville et Plateau [FRE 86]. II.4. Les méthodes heuristiques Algorithme II.6 - Add(x) : q = |J0 (x)| avec J0 (x) = {j | xj = 0} ; Classer les indices j ∈ J0 (x) tel que : pjk pj1 pjq ≥ ≥ t jk ≥ ≥ t jq ; μt.W j1 μ.W μ.W x=x ; Pour k=1 à q Si ∀i ∈ {1,, m} wj,jk + n X wi,j.xj ≤ ci, alors xjk = 1 fin Si ; j=1 Fin Pour Si pt.x > pt.x,alors x = x fin Si. Algorithme II.7 - Repeated drop add(x) : On considère J1 (x) le sous-ensemble des indices de x valant 1 : J1 (x) = {j | xj = 1, j ∈ {1,, n}}; x# = x ; Pour j ∈ J1 (x) : x = x# ; xj = 0 ; Add(x) ; Si pt.x > pt.x, alors x = x fin Si ; Fin Pour. En ce qui concerne la procédure Local search, plusieurs implémentations ont été proposées par les auteurs : – un algorithm e glouton, – un algorithme de recuit simulé, – Threshold Accepting de Dueck et Scheuer ([DUE 89] et [DUE 90]), – Noising method de Charon et Hudry [CHA 93a] et [CHA 93b]. Les tests numériques menés ont montré que, comparées aux autres variantes de l'algorithme, la méthode de Threshold Accepting permet d'avoir les meilleurs temps de calcul, mais aussi la meilleure borne. Nous avons donc implémenté cette version. Au niveau de la formulation Threshold Accepting est très proche d'un algorithme de recuit simulé. Threshold Accepting accepte une solution candidate comme nouvelle solution temporaire si il ne détériore pas trop la valeur courante de la fonction objective. Dueck et Scheuer ont montré que leur algorithme permet d'avoir une meilleure borne avec un temps de calcul plus faible que le recuit simulé. II.4.4 Les autres heuristiques existantes Bien entendu, il existent beaucoup d'autres heuristiques, sans parler de métaheuristiques, dans la littérature. Nous proposons ici de faire un rapide tour d'horizon de ces méthodes. Heuristiques Primales : Les heuristiques primales débutent avec la solution nulle (sac à dos vide). Selon une règle donnée, une succession de variables candidates sont affectées à 1 tant que la solution reste réalisable (voir McCarl, Kochenberg et Wynmann [MCC 74], Toyoda [TOY 75] et Loulou et Michaelides [LOU 79]). Heuristiques Duales : Les heuristiques duales débutent avec un vecteur solution égal à 1 (tous les objets sont pris). De même que précédemment, selon une règle donnée, une succession de variables candidates sont affectées à 0 jusqu'à l'obtention d'une solution réalisable (voir Senju et Toyoda [SEN 68]). Heuristiques basées sur une relaxation continue : Ces méthodes essaient de construire une solution réalisable pour (M KP ) à partir de l'analyse de la solution de sa relaxation continue (voir Hillier [HIL 69] et celui de Balas et Martin [BAL 80]). Zanackis [ZAN 77] a comparé l'algorithme de McCarl, Kochenberg et Wynmann [MCC 74], Senju et Toyoda [SEN 68] et celle de Hillier [HIL 69] et a montré qu'aucun d'entre eux ne dominait les autres. Heuristiques basées sur les autres relaxations : Ces heuristiques se basent sur une ou plusieurs relaxations du problème de départ (relaxation lagrangienne, surrogate et/ou composite). II.5. Les méthodes de résolution exacte 49 AGNES de Fréville et Plateau [FRE 94] en font partie (voir aussi Magazine et Oguz [MAG 84] et Osorio, Glover et Hammer [OSO 02]). Métaheuristiques : De nombreuses métaheuristiques ont été testées pour la résolution (M KP ). Parmi elles nous pouvons citer : – le recuit simulé (voir [KIR 83]), avec Drexl [DRE 88], – la recherche tabou (voir [GLO 89], [GLO 90] et [GLO 97]), avec Hanafi et Fréville [HAN 98] et Vasquez et Hao [VAS 01a] [VAS 01b], – l'algorithme génétique (voir [GOL 89]), avec Chu et Beasley [CHU 98]. II.5 II.5.1 Les méthodes de résolution exacte Branch and Bound L'algorithme du branch-and-bound [LAN 60] est basé sur une méthode arborescente de recherche d'une solution optimale par séparations et évaluations. reconnue pour résoudre les problèmes d'optimisation combinatoire NP-difficiles. Dans la littérature, plusieurs auteurs ont présenté des algorithmes de branch-and-bound pour le problème (M KP ), notamment Shih [SHI 79] suivi de Gavish et Pirkul [GAV 85] qui ont obtenu des temps calcul meilleurs que leur prédécesseur. Le problème posé pourra être, d'une façon générale, formulé de la façon suivante : max f (x), (P ) s.c. x ∈ X. (II.23) On recherche un élément x∗ ∈ X tel que f (x∗ ) ≥ f (x), ∀x ∈ X où : – f(.) est une fonction d'utilité, – X est un ensemble fini, défini par un ensemble de contraintes sur les variables. x∗ est une solution optimale du problème (P). On s'intéresse au cas où l'énumération de l'ensemble des éléments de X est impossible en raison de l'importance de son cardinal. La méthode de branch-and-bound cherche alors à éliminer de l'espace de recherche des sous-ensembles qui ne peuvent pas fournir de solution optimale. Présentation de l'algorithme L'algorithme consiste à séparer de manière récursive le problème en sous-problèmes de cardinalité inférieure tant que la résolution de ces problèmes reste difficile. Le cardinal de l'ensemble à explorer est réduit en imposant à cet ensemble des contraintes supplémentaires (réduction du domaine). Une série de tests, appliquée à tous les sous-problèmes permet de supprimer de l'espace de recherche les sous-problèmes qui ne peuvent pas engendrer de solution optimale. Cette recherche par décomposition de l'ensemble des solutions peut être représentée graphiquement par un arbre. C'est de cette représentation que vient le nom de "méthode de recherche arborescente". – Chaque sous-problème créé au cours de l'exploration est symbolisé par un noeud de l'arbre (ou sommet), le noeud racine représentant le problème initial. 50 – Les branches de l'arbre symbolisent le processus de séparation, ils représentent la relation entre les noeuds. – Les noeuds non séparés, appelés noeuds pendants (par exemple, (S1 ), (S3 ) et (S4 ), de la figure II.1) Figure II.1 – Arbre généré par décom position du sous-problème initial Plus précisément, le branch-and-bound est basé sur trois principes : – le principe de séparation – le principe d'évaluation – la stratégie de parcours. Principe d'évaluation : Le principe d'évaluation permet de diminuer l'espace de recherche. L'objectif est d'essayer d'évaluer l'intérêt de l'exploration d'un sous-ensemble de l'arborescence. Le branch-and-bound utilise, à des fins d'élagage (élimination de branches dans l'arborescence de recherche), deux fonctions : – une borne inférieure de la fonction d'utilité du problème initial, qui résulte d'une fonction d'évaluation et – une borne supérieure de la fonction d'utilité des solutions d'un sous-ensemble. La connaissance d'une borne inférieure du problème et d'une borne supérieure de la fonction d'utilité de chaque sous-problème permet de stopper l'exploration d'un sous-ensemble de solutions ne pouvant pas contenir de solutions candidates à l'optimalité : si pour un sous-problème la borne supérieure est plus petite que la borne inférieure du problème, l'exploration du sousensemble correspondant est inutile. D'autre part, lorsque le sous-ensemble est suffisamment "petit", on procède à une évaluation dite exacte : on résout alors le sous-problème correspondant. Le principe de séparation : Le principe de séparation permet d'établir l'ensemble des règles qui vont régir la séparation d'un ensemble en sous-ensembles. Afin d'assurer l'optimalité de la solution fournie par le branch-and- II.5. Les méthodes de résolution exacte 51 bound, certaines règles doivent être respectées. – Règle 1 : Aucune solution optimale ne doit être écartée lors d'une séparation. On utilise la règle suivante qui garantit la règle 1 : – Règle 1' : La réunion des sous-ensembles obtenus lors d'une séparation doit être égale à l'ensemble séparé, si Si est séparé en Si,1,, Si,n alors ∪nj=1 Si,j = Si. – Règle 2 : Le cardinal d'un sous-ensemble doit être inférieur à celui de son père. – Règle 3 : Un sous-ensemble qui ne peut être séparé doit être sondable. Remarque: Un ensemble sondable est un ensemble qu'on ne peut plus séparer parce que : – on connaı̂t la meilleure solution de l'ensemble, – on connaı̂t une solution meilleure que toutes celles de l'ensemble, – on sait que l'ensemble ne contient aucune solution admissible. Stratégie de parcours : La stratégie de parcours est la règle suivant laquelle est choisi le sommet devant être séparé parmi tous les sommets pendants de l'arborescence. Parmi les stratégies de parcours les plus connues, on peut citer : – La profondeur d'abord : L'exploration privilégie les sous-problèmes obtenus par le plus grand nombre de séparations appliquées au problème de départ, c'est-à-dire aux sommets les plus éloignés de la racine (de profondeur la plus élevée). L'obtention rapide d'une solution optimale et le peu de place mémoire nécessaire en sont les avantages. L'inconvénient est l'exploration de sous-problèmes peu prometteurs à l'obtention d'une solution optimale. – La largeur d'abord : Cette stratégie favorise les sous-problèmes obtenus par le moins de séparations du problème de départ, c'est à dire les sommets les plus proches de la racine.
54,357
01/tel.archives-ouvertes.fr-tel-00679527-document.txt_3
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
7,441
11,967
70 Chapitre II : Spectroscopie de défauts Figure II.8: Représentation schématique de la relation entre le signal DLTS et les transitoires de capacité exponentiels [12]. La position du pic par rapport à l'axe de température dépend de la fenêtre d'émission; dans le cas des fenêtres de mesure larges c'est-à-dire des taux d'émissions faibles, le pic du défaut se décale vers les basses températures. Lorsqu'on utilise plusieurs fenêtres d'émissions, on peut produire une série de spectres comme il est monté sur la figure II.9.a. Chaque maximum va correspondre à un couple (en,Tm) lorsque la dérivée par rapport à la température de la fonction Fdlts donnée par l'équation II-59 s'annule. Fdlts  C (t1, t2 )  C(t1 )  C (t2 )  K[exp(ent2 )  exp(ent1 )] (II-59) Avec K un facteur proportionnel à C(∞) selon l'équation II-39. Dans ce cas, la température Tm au maximum du pic peut être mesurée et le taux d'émission en(Tm) calculé pour chaque spectre à partir de l'équation : t  ln  2  t en (Tm )   1  t 2  t1 (II-60) Ces points sont utilisés pour tracer un graphe semi-log de log(en /T2) en fonction de 1000/T, (digramme d'Arrhenius figure II.9.b), à partir duquel l'énergie d'activation apparente Ena et la 71 Chapitre II : Spectroscopie de défauts section efficace apparente σna sont respectivement extraites de la pente de la droite et de l'ordonnée à l'origine. Figure II.9: Diagram me montrant les spectres DLTS pour différents taux d'émission et le diagramme d'Arrhenius obtenu (b). L'amplitude du pic DLTS est directement proportionnelle à la concentration du niveau profond, ainsi la concentration NT peut être obtenue directement à partir de la variation de la capacité qui est décrite par une expression simple [12, 19]: NT  2C (0) ND C (II-61) Où ND est la concentration des donneurs, C est la capacité de la jonction sous polarisation inverse et C (0) est la variation de la capacité due à l'impulsion de remplissage. L'équation II-61 est seulement applicable pour ND>>NT et C (0) << C. Lorsque la condition ND>>NT n'est pas vérifiée, il est possible d'employer une variante de la DLTS appelée DLTS en Capacité Constante (CC-DLTS) [20, 21]. Elle consiste à maintenir la capacité de la diode constante pendant l'émission du piège par l'intermédiaire d'un circuit de contre réaction. Dans ce cas, lorsque l'étendue de la zone de charge d'espace augmente, la polarisation inverse augmente à son tour pour rattraper la variation de la capacité. A cause du circuit de contre-réaction, la précision de cette technique est moindre que pour la DLTS standard. Chapitre II : Spectroscopie de défauts III-4) DLTS par Transformée de Fourier : DLTFS Depuis sa découverte il y a 35 ans, la spectroscopie de transitoire des défauts profonds (DLTS) conventionnelle a été un outil performant pour identifier les niveaux profonds dans les semiconducteurs et améliorer ainsi les performances des composants électroniques. Malheureusement, cette technique présente certaines limitations de résolution en signal. En effet avec la méthode Boxcar, l'acquisition de deux valeurs de capacité pour tout le transitoire à une température donnée ne donne qu'une seule valeur de la constante de temps du piège profond. En outre, il n'est pas possible de s'assurer que le transitoire est parfaitement exponentiel. Dans ce cas, la validité de la technique d'exploitation est remise en question. Au cours des dernières années, beaucoup d'efforts ont été investis pour améliorer l'analyse du transitoire en utilisant des moyens mathématiques et informatiques pour surmonter ces difficultés [22]. En 1988, Weiss et al [23] ont développé un nouveau concept qui a permis d'une part de numériser le temps de transitoire de capacité et d'autre part de le traiter en utilisant la Transformée de Fourier, cette technique est appelé DLTFS. Deux ans après, Dobaczewski et al. [24, 25] ont déployé une autre version à haute résolution en utilisant la Transformée de Laplace (LDLTS). Cette méthode consiste à numériser les transitoires et analyser à une température donnée (méthode isotherme) le taux d'émission. Dans la pratique, la résolution avec cette méthode peut atteindre des concentrations 5x10-4 à 5x10-2 plus faible que la densité des donneurs ou des accepteurs peu profonds avec une précision sur les énergies d'activation de quelques meV. En revanche, il est nécessaire de réduire toutes les contributions provenant du bruit. Par exemple, il est très important d'utiliser des alimentations et des générateurs d'impulsions très stables. Dans notre étude, nous allons nous intéresser plus précisément à la DLTFS, puisque c'est la technique qui a été utilisée dans ce travail. Cette méthode s'appuie sur 4 étapes principales au cours de la mesure : (a) Un échantillonnage du transitoire de capacité en N valeurs mesurées. A partir de ces N valeurs, les coefficients de Fourier discrets sont calculés par une transformation de Fourier numérique. (b) Pour chaque coefficient de Fourier, la constante de temps et l'amplitude de chaque transitoire peuvent être immédiatement calculées à chaque température. 73 Chapitre II : Spectroscopie de défauts (c) Comme la détermination de la constante de temps est possible durant la mesure DLTFS, un programme a été développé (HERA-Phystech) pour contrôler la mesure en optimisant certains paramètres comme la température, le temps de mesure, l'amplification, etc (d) Grâce aux points (b) et (c), il est possible d'ajuster sur une rampe de température une ou plusieurs périodes de mesure Tw pour le transitoire de capacité. Ceci est un avantage majeur pour la méthode DLTFS. De plus on peut aussi contrôler le niveau de bruit par filtrage numérique du signal. III-5) Théorie de la DLTFS Pour aborder cette théorie, supposons un système numérique qui convertit un signal f(t) analogique, via un convertisseur analogique-numérique, en N valeurs de temps discrètes et équidistantes kt, k =0, 1,, N-1, t est l'intervalle d'échantillonnage. On suppose que f(t) est périodique de période Tw = Nt et contient N intervalles avec N+1 valeurs réelles f0,, fN. Pour l'extraction des paramètres des pièges à partir des transitoires, nous devons d'abord donner certaines définitions: (a) Les coefficients de Fourier continus (analytiques) cn de la série de Fourier : cn  1 TW TW 0 f (t ) exp( int )dt, n  Z (II-62) Avec ω la fréquence correspondant à une période Tw qui s'écrit :  2 TW (II-63) Dans le cas où f(t) est réelle, les coefficients an (les cosinus) et bn (les sinus) sont réels et représentent les parties réelle et imaginaire de cn : cn  1 (a n  ibn ), n  0 2 (II-64) (b) La transformée de Fourier discrète (numérique) DFT (Direct Fourier Transorm): 74 Chapitre II : Spectroscopie de défauts N 1 Fn   f k exp( 2ink / N ), n = 0, 1,, N-1 (II-65) k 0 Comme les valeurs échantillonnées sont réelles, seules N/2 valeurs indépendantes de Fn existent. La relation qui lie la DFT et les coefficients de Fourier discrets c nD est donnée par : Fn  NcnD (II-66) Rappelons que l'idée générale de la technique DLTFS est l'échantillon nage du transitoire de capacité sur N valeurs pour déterminer les coefficients de Fourier discrets c nD. III-5-1) Evaluation directe du transitoire Avec la méthode DLTFS l'évaluation directe de chaque transitoire est possible. Le terme « direct » veut dire que la valeur évaluée, par exemple la constante de temps, est calculée directement à partir du transitoire et pas « indirectement » à partir du maximum du pic du spectre. Prenons une fonction exponentielle qui décrit le transitoire, cette fonction s'écrit :  t  t0  f (t )  A exp   B    (II-67) Où A est l'amplitude, B l'offset, t0 le temps entre l'impulsion de charge et le début de la mesure, et  la constante de temps de piégeage. Il faut noter que t0 (appelé aussi temps de recouvrement) doit être pris en compte si on n'a pas t0<< . Pour cette fonction réelle, les coefficients de Fourier sont les suivants : a0  2A exp( t 0 /  )(1  exp(TW /  ))  2 B TW (II-68) an  2A 1/ exp( t 0 /  )(1  exp(TW /  )) 2 TW 1 /   n 2 2 (II-69) bn  n 0 2A exp( t 0 /  )(1  exp(TW /  )) 2 TW 1 /   n 2 2 (II-70) Pour vérifier si le transitoire est exponentiel, il faut que les relations suivantes soient vérifiées: 75 Chapitre II : Spectroscopie de défauts  k2 a k  a n  2 a k pour n < k n (II-71)  k n bk bn  bk pour n < k n k (II-72)  bn a k n  a n bk k (II-73) Pour les coefficients d'ordres n=1 et n=2 on obtient un critère sur le caractère exponentiel du transitoire (appelé « exponential class » dans le logiciel) : b2 a1 1 2b1 a 2 (II-74) Pour une « exponential class » proche de 1, l'amplitude du signal A et par conséquent la concentration des centres profonds NT, peuvent être calculées à partir de chaque coefficient an et bn. La constante de temps τ peut être déterminée à partir du rapport de deux coefficients. 76 Chapitre II : Spectroscopie de défauts Figure II.10: Transitoire de capacité d'un défaut à porteurs majoritaires d'une structure HEMT AlGaN/GaN et le calcul numérique des paramètres extraits de DLTFS pour N = 512. III-5-2) Balayage en température Comme pour la DLTS conventionnelle, avec la technique DLTFS le signal C ou I est calculé en utilisant une fonction de corrélation. La différence est qu'avec la DLTS numérique le corrélateur n'est pas une fonction analogique fixée par le matériel (porte boxcar) mais sera obtenu par un traitement numérique du signal. Une fois que le transitoire est enregistré, le système utilise plusieurs fonctions de corrélations ayant plusieurs formes périodiques pour calculer le coefficient de Fourrier et extraire la valeur de C. Dans notre cas, le logiciel peut utiliser jusqu'à 28 fonctions de corrélation, ainsi nous obtenons à la fin de la rampe en température 28 spectres DLTS avec différents maxima à différentes températures. Chaque spectre est défini par une constante de temps . La figure II.11montre un exemple de spectres pour différents coefficients de Fourier. Cela signifie qu'après un cycle de température, on peut extraire 28 couples ( , T) qu'on utilisera pour construire le diagramme d'Arrhenius. Les fonctions de corrélations différent entre elles par la sensibilité et la résolution en énergie, ce qui veut dire le facteur de normalisation A et la largeur à mi-hauteur du signal. Le plus souvent, le coefficient b1 présente un bon compromis (sinus d'ordre 1) qui est utilisé comme un coefficient standard dans le logiciel. En général, la fonction qui donne une meilleure 77 Chapitre II : Spectroscopie de défauts Figure II.11: Différents spectres DLTFS des coefficients a1 et b1 développés au 1er et 2nd ordre d' une structure HEMT AlGaN/GaN pour N = 512. résolution en énergie possède une mauvaise résolution en amplitude (jusqu'à un facteur 100 en dessous du coefficient b1). Dans ce cas, pour vérifier l'exactitude des résultats, la simulation de la signature du défaut est nécessaire pour comparer avec le spectre expérimental (ceci sera détaillé dans la partie résultats). III-6) Appareillage de mesures DLTFS Le système DL8000 de PhysTech utilisé est un équipement acquis par l'équipe au cours de ce travail. Il a été conçu pour effectuer des mesures en DLTS capacitive (C-DLTS), courant (IDLTS) ou charge (Q-DLTS). L'appareillage est constitué essentiellement de deux blocs comme le montre la figure II.12 : un bloc analogique et un bloc numérique. La partie analogique du système constitue le système de mesures qui intègre un générateur de tension, un capacimètre, un cryostat sous vide et un convertisseur de courant-tension I/V relié au système d'acquisition. Chapitre II : Spectroscopie de défauts Figure II.12 : Vue schématique de l'appareillage de mesure de DLTS. La source de tension impulsionnelle est un générateur pour toutes les polarisations appliquées à l'échantillon. Son alimentation n'est reliée à aucune partie du bloc numérique ce qui permet de s'affranchir du bruit électrique provenant de l'équipement lui-même. Le chemin de mesure analogique (ligne noire en gras avec flèches) commence par la source de polarisation (ou la source d'impulsions) et traverse le capacimètre Boonton (connexion arrière). Via la sortie « high » de ce dernier, arrive la polarisation sur le contact Schottky de l'échantillon qui se trouve à l'intérieur du cryostat. Le contact ohmique de l'échantillon est relié à la face avant du Boonton (low). A la sortie (face arrière), on récupère deux signaux porteurs de la capacité et du courant qui seront injectés dans le compartiment amplificateur convertisseur I/V. A la sortie de l'amplificateur, le signal passe par un filtre puis est transmis 79 Chapitre II : Spectroscopie de défauts dans l'enregistreur du transitoire. Ce dernier qui reçoit du convertisseur une tension en fonction du temps la transforme en données numériques et transmet l'information au processeur. La commande électronique des divers appareils est également gérée par le processeur piloté par le logiciel HERA via une carte GPIB. Il est important de noter que toute cette partie numérique est maintenue inactive durant la mesure du transitoire à l'exception de l'enregistreur : une précaution prise pour éliminer toute source de bruit provenant de l'entourage électronique. Nous donnons dans ce paragraphe les caractéristiques techniques de l'appareillage. La source de tension contrôlée par le logiciel de pilotage délivre deux tensions indépendantes (polarisation et impulsion) dans la gamme ± 20 V avec une résolution de 1 mV. La durée de l'impulsion tp peut varier de 1 s à 4.104 s avec une résolution de 5.10-7 s. Le capacimètre Boonton 72b peut mesurer des capacités jusqu'à 3000 pF sur quatre calibres différents. Les mesures s'effectuent à une fréquence de 1MHz et une amplitude d'un signal sinusoïdal de 100 mV qui se superpose à la tension délivrée par la source. Nous pouvons atteindre une résolution de quelques Femtofarads avec ce type de capacimètre. L'amplificateur du signal a pour rôle de convertir le signal analogique récupéré (courant et capacité) par le capacimètre et de le multiplier par un gain variable lorsque le signal est faible. La limite en courant du convertisseur est de ± 10 mA avec une résolution de 1 nA. III-7) Comparaison entre les techniques utilisées Au cours de ce travail, nous avons adopté deux techniques de spectroscopie de défauts profonds. La première consiste à analyser les défauts en balayant la capacité de la zone de déplétion et la deuxième repose sur l'influence des pièges sur le courant total qui traverse la structure. Bien que les deux types de mesures aboutissent à une extraction des niveaux énergétiques de ces centres, les résultats obtenus peuvent être complémentaires et pas forcement identiques. Chapitre II : Spectroscopie de défauts En effet, la résolution en concentration des pièges est un grand avantage dans le cas des mesures de capacité. Ceci nous permet d'extraire plusieurs niveaux de pièges lors d'une seule rampe en température. En revanche, cette technique possède plusieurs limites selon le type de semiconducteur utilisé. Dans certains cas particuliers où la condition ND>>NT n'est pas vérifiée, la mesure en capacité est impossible. De plus, dans les structures de types FETs, la détection de pièges dans la couche tampon ou dans le canal devient difficile car elle nécessite l'utilisation de tensions inverses proches de la tension de seuil, ce qui induit une grande résistance en série avec la capacité de la diode et rend la mesure difficile. De même, l'utilisation de forts champs électriques peuvent mettre en question les résultats obtenus en raison de l'effet Poole-Frenkel. Dans le cas de la DLTS en courant, les problèmes liés à la résistance série ne semblent pas intervenir dans la mesure du courant mais la tension de polarisation ne doit pas dépasser la tension de seuil. Au-delà de cette tension, aucun courant direct dans la structure n'est alors mesurable. Le grand avantage de cette technique est qu'elle est applicable directement sur un composant fini qui a subi toutes les étapes technologiques nécessaires dans la réalisation d'un transistor. En ce qui concerne la densité des pièges, cette technique reste très limitée à cause de la complexité des équations utilisées lors de l'analyse des transitoires (équation II-56). 81 Chapitre II : Spectroscopie de défauts IV) Bibliogaphie du chapitre II [1] C. D. Thurmond, "The Standard Thermodynamic Functions for the Formation of Electrons and Holes in Ge, Si, GaAs, and GaP," Journal of The Electrochemical Society, vol. 122, no. 8, pp. 1133–1141, 1975. [2] O. Engström and A. Alm, "Thermodynamical analysis of optimal recombination centers in thyristors," Solid-State Electronics, vol. 21, no. 11-12, pp. 1571 – 1576, 1978. [3] J. Criado, A. Gomez, E. Calleja, and E. M. noz, "Novel method to determine capture cross-section activation energies by deep-level transient spectroscopy techniques," Applied Physics Letters, vol. 52, no. 8, pp. 660–661, 1988. [4] P. Blood and J. J. Harris, "Deep states in GaAs grown by molecular beam epitaxy," Journal of Applied Physics, vol. 56, no. 4, pp. 993–1007, 1984. [5] J. Lauwaert, J. V. Gheluwe, and P. Clauws, "An accurate analytical approximation to the capacitance transient amplitude in deep level transient spectroscopy for fitting carrier capture data," Review of Scientific Instruments, vol. 79, no. 9, p. 093902, 2008. [6] J. Pernot, C. Ulzhöfer, P. Muret, B. Beaumont, and P. Gibart, "Free energy and capture cross section of the E2 trap in n-type GaN," physica status solidi (a), vol. 202, no. 4, pp. 609–613, 2005. [7] C. O. Almbladh and G. J. Rees, "Statistical mechanics of electronic energy levels in semiconductors," Solid State Communications, vol. 41, no. 2, pp. 173 – 176, 1982. [8] N. Bagraev, A. I. Gusarov, and V. A. Mashkov, "Spin-correlated electron transfer along broken bonds in semiconductors," Sov. Phys. P, vol. 68, pp. 816–825, 1989. [9] A. Brannick, N. Zakhleniuk, B. Ridley, L. Eastman, J. Shealy, and W. Schaff, "Hydrodynamic simulation of surface traps in the AlGaN/GaN HEMT," Microelectronics Journal, vol. 40, no. 3, pp. 410 – 412, 2009. Workshop of Recent Advances on Low Dimensional Structures and Devices (WRA-LDSD). [10] L. C. Kimerling, "Influence of deep traps on the measurement of free-carrier distributions in semiconductors by junction capacitance techniques," Journal of Applied Physics, vol. 45, no. 4, pp. 1839–1845, 1974. 82 Chapitre II : Spectroscopie de défauts [11] P. Blood and J. W. Orton, The Electrical Characterization of Semiconductors: Majority Carriers and Electron States. Academic Press, 1992. [12] D. V. Lang, "Deep-level transient spectroscopy: A new method to characterize traps in semiconductors," Journal of Applied Physics, vol. 45, no. 7, pp. 3023–3032, 1974. [13] T. Figielski, "Recombination at dislocations," Solid-State Electronics, vol. 21, no. 11- 12, pp. 1403 – 1412, 1978. [14] T. Wosinski, "Evidence for the electron traps at dislocations in GaAs crystals," Journal of Applied Physics, vol. 65, no. 4, pp. 1566–1570, 1989. [15] P. Omling, E. R. Weber, L. Montelius, H. Alexander, and J. Michel, "Electrical properties of dislocations and point defects in plastically deformed silicon," Phys. Rev. B, vol. 32, pp. 6571–6581, Nov 1985. [16] P. N. Grillot, S. A. Ringel, E. A. Fitzgerald, G. P. Watson, and Y. H. Xie, "Electron trapping kinetics at dislocations in relaxed Ge0.3Si0.7/Si heterostructures," Journal of Applied Physics, vol. 77, no. 7, pp. 3248–3256, 1995. [17] Rashmi, A. Kranti, S. Haldar, and R. S. Gupta, "An accurate charge control model for spontaneous and piezoelectric polarization dependent two-dimensional electron gas sheet charge density of lattice-mismatched AlGaN/GaN HEMTs," Solid-State Electronics, vol. 46, no. 5, pp. 621 – 630, 2002. [18] G. L. Miller, D. V. Lang, and L. C. Kimerling, "Capacitance transient spectroscopy," Annual Review of Materials Science, vol. 7, no. 1, pp. 377–448, 1977. [19] Y. Zohta and M. O. Watanabe, "On the determination of the spatial distribution of deep s in semiconducting thin films from capacitance transient spectroscopy," Journal of Applied Physics, vol. 53, no. 3, pp. 1809–1811, 1982. [20] N. M. Johnson, "Measurement of semiconductor insulator interface states by constant capacitance deep level transient spectroscopy," Journal of Vacuum Science and Technology, vol. 21, pp. 303 –314, July 1982. [21] J. Pals, "Properties of Au, Pt, Pd and Rh levels in silicon measured with a constant capacitance technique," Solid-State Electronics, vol. 17, no. 11, pp. 1139 – 1145, 1974. 83 Chapitre II : Spectroscopie de défauts [22] M. Jack, R. Pack, and J. Henriksen, "A computer-controlled deep-level transient spectroscopy system for semiconductor process control," Electron Devices, IEEE Transactions on, vol. 27, pp. 2226 – 2231, Dec. 1980. [23] S. Weiss and R. Kassing, "Deep level transient fourier spectroscopy (dltfs)–a technique for the analysis of deep level properties," Solid-State Electronics, vol. 31, no. 12, pp. 1733 – 1742, 1988. [24] L. Dobaczewski, P. Kaczor, I. D. Hawkins, and A. R. Peaker, "Laplace transform deep-level transient spectroscopic studies of defects in semiconductors," Journal of Applied Physics, vol. 76, no. 1, pp. 194–198, 1994. [25] L. Dobaczewski, A. R. Peaker, and K. B. Nielsen, "Laplace-transform deep-level spectroscopy: The technique and its applications to the study of point defects in semiconductors," Journal of Applied Physics, vol. 96, no. 9, pp. 4689–4728, 2004. Chapitre III : Caractérisations des défauts dans les HEMTs Chapitre III : Caractérisations des défauts dans les HEMTs 85 Cette thèse est accessible à l'adresse : http://theses.insa-lyon.fr/publication/2011ISAL0050/these.pdf © [W. Chikhaoui], [2011], INSA de Lyon, tous droits réservés Chapitre III : Caractérisations des défauts dans les HEMTs I) Introduction Comme nous l'avons décrit dans le premier chapitre, de nombreux mécanismes de défaillance ont été répertoriés sur les technologies HEMTs. L'amélioration de la fiabilité des transistors est surtout fortement liée au contrôle du courant dans le canal qui se dégrade sous différentes contraintes thermiques et électriques. Les progrès apportés aux matériaux (réduction de la densité de défauts des substrats et couches épitaxiées), aux techniques de passivation (amélioration des états de surface et réduction des courants de fuite), à la qualité et la robustesse des contacts de grille et ohmiques, sont autant de voies qui permettent d'améliorer les performances en puissance de ces composants. Toutefois, jusqu'à aujourd'hui ces efforts ne suffisent pas pour s'affranchir de tous les mécanismes de dysfonctionnement. Dans ce chapitre, seront présentées, dans un premier temps, les mesures des caractéristiques statiques IDS(VDS) et les mesures de capacité grille-source en fonction de la tension VGS. Nous discuterons des anomalies qui apparaissent lors de l'étude en température et qui peuvent être liées directement aux mécanismes de piégeage localisés dans certaines zones des composants. Dans un deuxième temps, nous présenterons une étude approfondie des effets liés à la présence de défauts dans la structure. En utilisant la technique DLTS capacitive, nous discuterons la localisation de certains pièges dans la couche barrière et leurs cinétiques piégeage. Nous utiliserons ensuite la DLTS en courant pour analyser l'influence directe de ces défauts sur le courant drain-source. La localisation et la nature des pièges seront l'objectif de notre étude après l'extraction des signatures de chaque défaut. Nous avons ainsi essayé d'avoir un maximum d'information sur le comportement de ces défauts en utilisant plusieurs géométries de composants et en jouant sur différents paramètres tels que le champ électrique et le temps de remplissage des pièges. La troisième partie de cette étude est consacrée à l'analyse de la fiabilité des HEMTs après vieillissement. Pour cela, nous utilisons la même méthode de spectroscopie de défauts pour expliquer ce qui a provoqué la dégradation des composants après les tests de stress. Chapitre III : Caractérisations des défauts dans les HEMTs II) Structures étudiées II-1) Architecture des structures Les composants étudiés au cours de ce travail proviennent de trois plaques différentes. Les deux premières appelées AEC1388 et AEC1389 sont constituées de mêmes types de couches pour fabriquer des HEMTs conventionnels à base d'AlGaN/GaN dont l'architecture est présentée dans la figure III.1.a. La croissance a été réalisée au laboratoire III-V Lab d'Alcatel par LPMOCVD (Low Pressure Metal Organic Chemical Vapour Depostion) sur un substrat SiC. La nucléation se fait par l'intermédiaire d'une couche sur laquelle est déposée la couche tampon de GaN non intentionnellement dopée et d'épaisseur 1,7 μm dans le cas de la plaque AEC1388 (épaisseur différente selon la plaque). Cette couche, suffisamment épaisse, joue le rôle d'un substrat pour les couches superficielles et impose son paramètre de maille dans le cas d'une croissance pseudomorphique. Sur cette couche est déposé l'AlGaN non dopé d'épaisseur 22 nm avec un pourcentage en aluminium de 22% pour la AEC1388 et 24% pour la AEC1389. Les résistances carrés obtenues sont respectivement 527 Ω/ et 428 Ω/ avec une densité de porteurs dans le canal ns2DEG= 1x1013 cm-2. Les contacts ohmiques sont réalisés par un empilement de couches de titane (12 nm), d'aluminium (200 nm), de nickel (40 nm) et d'or (100 nm) déposées par évaporation au canon à électrons. Cet empilement est ensuite recuit sous atmosphère d'azote à 900°C durant 30 secondes. L'isolation des composants est obtenue par implantation ionique d'hélium suivie d'un recuit sous atmosphère d'azote. Les contacts Schottky de grille sont constitués d'une bicouche de molybdène (40nm) et d'or (300nm) déposées par évaporation électronique. Les composants sont passivés par dépôt d'une couche de diélectrique SiO2 (100 nm) suivi d'une couche de Si3N4 (50 nm). La troisième plaque (AEC1561) est une épitaxie dans le système de matériau AlInN/AlN/GaN réalisée par LPMOCVD sur un substrat de SiC. Sur la couche tampon GaN d'épaisseur 1,7 μm a été déposée une fine couche d'AlN d'épaisseur 1 nm dans le but d'améliorer la transition entre les différents matériaux et de minimiser le désordre cristallin à l'interface [1]. La couche barrière d'AlInN d'épaisseur 11 nm est en légère compression avec GaN ce qui génère une légère polarisation piézoélectrique opposée à la polarisation spontanée pour un pourcentage d'indium incorporé de 18,6 %. Plaque Couche barrière Epaisseur (nm) Fraction molaire (x) en Al Epaisseur tampon (GaN) (μm) Densité de porteurs nS (1013 cm-2) Résistance carrée R ( Contact Schottky Contact ohmique Couches de passivation AEC1388 AlxGa1-xN 22 0,24 1,7 1,01 572 ± 33 Mo/Au Ti/Al/Ni/Au SiO2/SiN AEC1389 AlxGa1-xN 22 0,23 1,15 1 478 Mo/Au Ti/Al/Ni/Au SiO2/SiN AEC1561 AlxIn1-xN /AlN 11/1 0,81 1,7 1,5 320 ± 5 Ni/Au Ti/Al/Ni/Au SiN Tableau III.1 : Caractéristiques des plaques AEC1388, AEC1389 et AEC1561 Chapitre III : Caractérisations des défauts dans les HEMTs II-2) Echantillons testés La structure générale des plaques étudiées est schématisée en figure III.2 : les circuits principaux comportant les transistors de petites longueurs de grille sont situés dans la croix centrale de la plaque. Les puces situées dans les 4 quadrants sont des motifs de test, appelés PCM (Process Control Monitor). Dans ces motifs, on trouve des FATFETs (FAT-Field Effect Transistors) qui sont des transistors à grande surface de grille, des GTLM (Gated Transmission Line Method) qui nous servent comme des composants à longueurs de grilles variables, des transistors à grille unique et à multiples doigts de grille, des Hall pour des mesures à effet Hall, etc Plusieurs types de composants provenant des trois plaques ont été analysés au cours de ce travail. Nous avons choisi différentes géométries et différentes architectures pour avoir un maximum d'informations sur les mécanismes de dysfonctionnement. Les échantillons que nous avons reçus de III-V Lab sont choisis à différents endroits de la plaque. Les transistors longueurs de grilles 0,25 μm sont fabriqués avec différentes architectures. On trouve des composants à deux doigts, à quatre doigts et à huit doigts inter-digités avec la même largeur WG = 75 μm. Ces composants seront repérés par n x WG x LG avec n le nombre de doigts et LG la longueur de grille. Les autres, intégrés dans les motifs de test PCM ont des longueurs de grilles LG variables et de même largeur WG= 125 μm dans le cas des GTLM et une plus grande longueur de grille LG= 100 μm et WG= 160 μm dans le cas du FATFET. Dans la figure III.2 nous montrons une image par microscope optique d'un transistor à deux grilles et une coupe TEM (Transmission Electron Microscopy) sur l'un des deux doigts de grille effectuée par III-V Lab. Chapitre III : Caractérisations des défauts dans les HEMTs Figure III.2 : Exemple d'un motif de test (PCM) et une image prise par microscope optique d'un transistor 2x0,25 μm ainsi qu'une coupe TEM sur un doigt de grille du transistor (image TEM III-V Lab). III) Dysfonctionnements dans les caractéristiques statiques L'instabilité des caractéristiques des transistors est généralement liée aux effets parasites des composants. Ils peuvent être extrinsèques liés à l'environnement extérieur du transistor ou intrinsèques liés directement au composant lui-même. Ces derniers semblent être une cause majeure dans la dégradation des performances des HEMTs à base de GaN. Parmi les effets reportés dans la littérature, nous pouvons citer les plus observés, tels que les dysfonctionnements liés aux défauts cristallins, à l'auto échauffement du canal ou à l'ionisation par impact des porteurs. Dans les paragraphes qui suivent, nous décrivons certains de ces effets en analysant les caractéristiques statiques des transistors à travers les mesures courant-tension et capacité-tension. Chapitre III : Caractérisations des défauts dans les HEMTs III-1) Appareillage et développement du cryostat L'application des polarisations grille-source et grille-drain et la mesure des tensions et des courants sont réalisées grâce à un analyseur HP 4156A lié à une enceinte cryogénique. Le système de refroidissement est composé d'un cryostat refroidi à l'azote liquide. Le système offre une résolution en courant de ±10 fA à ± 100mA et une résolution en température de ±1 K dans une gamme entre 77 K et 500 K. Les mesures C(V) ont été effectuées à l'aide de l'analyseur Agilent 4284A variable en fréquence dans la gamme de 20Hz-100MHz. Les boitiers ont été montés dans un cryostat pour assurer l'obscurité lors de la mesure. Dans le cas des transistors à faibles longueurs de grilles, les premières mesures du courant drain-source réalisées dans l'enceinte cryogénique présentaient des phénomènes d'oscillations. Ce problème d'instabilité semblait affecter les composants puisque les fluctuations du courant rencontrées lors des mesures dégradaient irréversiblement le courant après chaque mesure. Pour cela, une grande partie du travail sur les caractéristiques IDS(VDS) a consisté à adapter le système de mesure à ce type de composants. Dans l'annexe 1, nous résumons la démarche utilisée pour optimiser le système cryogénique afin d'obtenir une bonne stabilité dans les caractéristiques IDS-VDS. III-2) Mesures courant-tension Les mesures statiques IDS(VDS) peuvent révéler différents mécanismes de défaillance qui agissent directement sur les caractéristiques de sortie. Dans ce cadre, nous avons focalisé les mesures sur les transistors de la plaque AEC1388 afin d'analyser plusieurs de ces effets. Nous commençons par présenter les résultats des caractéristiques IDS(VDS) obtenues en régime continu et en régime pulsé sur un composant de géométrie 2x75x0.25 μm2. La figure III.5 montre une comparaison des résultats obtenus pour des tensions de grille allant de V GS = -2 V à -4 V. La limite en courant de l'appareil de mesure ne dépasse passe 100mA, ce qui ne nous a pas permis d'atteindre des valeurs de tension de grille plus élevées (dans le sens postitif). Le réseau I(V) obtenu montre un courant de drain plus élevé en régime pulsé comparé aux mesures continues. Cet effet a été largement étudié dans la littérature et attribué à l'autoéchauffement du canal lorsqu'il est soumis à des contraintes électriques. La cause primordiale de cet effet est la génération de chaleur par effet Joule liée au courant drain-source qui se 91 Chapitre III : Caractérisations des défauts dans les HEMTs Figure III.5 : Comparaison des caractéristiques statiques IDS(VDS) obtenues en régime continu et pulsé à 300 K. produit à cause des collisions entre les électrons et le réseau cristallin et le confinement de la chaleur dans la couche tampon. Cet effet est moins visible pour les fortes tensions de grille car le courant est moins élevé. Ceci provient du fait que lorsqu'on s'approche de la tension de pincement, la densité des électrons dans le canal diminue faisant ainsi diminuer la probabilité de collisions avec le réseau cristallin. Cet effet peut être néfaste dans le cas des HEMTs à base de substrats à faible conductivité thermique. Dans le cas de nos composants, le substrat SiC présente un avantage très important vu sa conductivité thermique qui est 4 fois plus grande que celle du Si et 100 plus grande que celle du saphir. La figure III.5 montre aussi la présence d'un effet « Kink » pour 4 V < VDS < 6 V. Cet effet se manifeste par une augmentation brusque du courant de drain pour des tensions VDS > VDSkink : ce phénomène a été observé précédemment dans le cas des MESFETs à base de GaAs, de SiC, des MOSFETs sur Si et des HEMTs à base de GaAs et d'InP. Il a été démontré que ce mécanisme pourrait dépendre de la longueur de grille du transistor et des propriétés physiques des matériaux épitaxiés. Cet effet est a priori sensible à un fonctionnement sous éclairement du composant [2] et peut apparaître à différentes valeurs de tension de drain-source VDSkink [3]. Nous notons plusieurs origines possibles, telles que l'ionisation par impact des porteurs sous des tensions drain-source élevées [4], la présence d'états de surface de la couche barrière [5] ou la dynamique des porteurs vis-à-vis de la présence de défauts dans la structure [6, 7, 8, 9]. Chapitre III : Caractérisations des défauts dans les HEMTs Pour étudier ces hypothèses, nous avons effectué des mesures I(V) en régime continu en fonction de la température pour voir l'évolution de cet effet. La figure III.6 montre une comparaison entre les réseaux de caractéristiques à 150 K et à 300 K. Durant les mesures, nous avons observé que l'amplitude du « Kink » dépend du temps d'intégration (temps d'acquisition) du courant après chaque pas de polarisation drain-source. Pour cela, nous avons imposé des temps d'intégration assez longs (500ms) pour obtenir une amplitude maximale du « Kink ». Ceci nous permet de conclure que la notion de temps intervient forcément dans ce mécanisme, et qu'il est donc lié très probablement à des effets de piégeage/dépiégeage. Figure III.6 : Caractéristiques statiques IDS(VDS) à 150 K et300 K obtenues en régime continu sur des transistors 2x75x0.25 μm2. D'après le réseau I(V), nous pouvons remarquer que cet effet est plus visible à basse température pour le même champ latéral appliqué entre drain et source puisque l'effet kink apparaît pratiquement à la même valeur de VDSkink= 4.5 V. Une autre observation peut aussi attirer l'attention est le fait que l'amplitude du kink dépend de la tension de polarisation V GS sur la grille. En effet, les mesures à 150 K montrent que l'effet est maximal pour une tension VGS= -3 V, ceci veut dire que cet effet est plus marquant lorsqu'on s'approche de la tension de pincement (entre -3 V et -3.5 V). Revenons à la littérature, R. Vetury [35] a expliqué l'effet kink par la présence d'une grille virtuelle située entre la grille et le drain. Ce concept de grille virtuelle découle de la noncompensation de la charge piézoélectrique présente en surface. Comme nous l'avons évoqué lors de l'étude de l'architecture du composant, la charge positive générée par les espèces ioniques à la surface de la couche barrière d'AlGaN devrait venir compenser la formation du gaz 2D. A partir de cette hypothèse, Vetury admet la possibilité que, sous l'action d'un champ électrique latéral (polarisation drain-source), les électrons injectés par la grille peuvent venir se recombiner avec les états de surface chargés positivement. Dès lors, le gaz 2D dans le canal ne serait plus compensé par la totalité des charges positives mais par une partie de celles-ci. Par conséquent, nous allons obtenir une déplétion « locale » du canal sous les zones où les états « accepteurs » à la surface ont piégé des électrons. Le même scénario peut expliquer nos résultats. Dans premier temps, le fait qu'on s'approche de la tension de pincement, veut dire que la variation du courant à travers le canal devient sensible à une faible variation de la densité de porteurs. Dans le cas d'un courant faible, l'effet d'une déplétion par les états remplis à la surface est plus facilement visible. Une autre hypothèse pour expliquer l'augmentation du kink avec VGS est le courant de fuite de grille qui augmente. Ceci va favoriser le piégeage d'un plus grand nombre d'électrons en surface entre grille et drain. Ces états vont alors créer une diminution du courant (collapse) pour des tensions VDS < VDSkink. Figure III.7 : Modèle d'un composant (a) non polarisé et (b) sous une polarisation négative sur la grille et une tension VDS montrant l'apparition d'une grille virtuelle. La figure III . 7 .a montre une distribution de charges « normale » lorsque le transistor est non polarisé. Dans ce cas , l'ensemble des charges du gaz 2D est compensé par les états donneurs ionisés à la surface . Lorsque le composant est soumis à une polarisation négative sur la grille et une tension VDS, les électrons injectés vont créer un courant surfacique sous l'effet du champ électrique latéral entre la grille et le drain. Les porteurs se trouvant du côté de la grille vont être piégés par ces états ionisés et créer un déséquilibre de charge dans la structure. Dès 94 Chapitre III : Caractérisations des défauts dans les HEMTs lors, ce déficit va provoquer une déplétion localisée dans le canal et donc limiter le courant de drain (figure III.7.b). Pour obtenir plus d'informations sur ce mécanisme, nous avons réalisé des mesures du courant IDS en fonction de la polarisation de la grille VGS pour différentes températures. Ces caractéristiques de transfert ont été effectuées dans le but d'analyser l'évolution de la tension de seuil du transistor en fonction de la température. Les mesures ont été faites sur des composants GTLM de géométrie 10x125μm2 pour avoir une meilleure stabilité en courant et pour nous affranchir des oscillations que nous avons rencontrées dans le cas des petites géométries. A noter que les caractéristiques IDS(VDS) sur ce type de géométrie n'ont montré aucun effet kink à la température ambiante. La figure III.8.a présent e les caractéristiques IDS(VGS) pour des températures variant de 100 K à 300 K. Les mesures ont été effectuées à une tension drain-source VDS= 8 V. Cette tension a été cho isie pour voir l'influence du mécanisme de dépi ège age des porteurs sur la tension de seuil puisqu'elle correspond selon le réseau IDS VDS) à une tension légèrement supérieure à VDSkink. Figure III.8 : Réseaux de caractéristiques en fonction de la température : (a) I DS(VGS) à VDS= 8 V et (b) IDS(VDS) à VGS= -3 V. Les mesures à basse température montrent un décalage dans le sens positif de la tension de seuil. Ce décalage atteint une valeur maximum de ΔVth= 0.35 V entre 100 K et 200 K. Pour de plus hautes températures on remarque que ce décalage se réduit et le seuil se rapproche de la valeur obtenue à 100 K. Cet effet de variation du seuil peut être expliqué par la présence d'un plan de défauts à l'interface de l'hétérojonction ou à la surface du composant et qui peut créer une grille virtuelle provoquant ainsi la déplétion du canal. Une des conséquences directes de ce phénomène est la diminution du courant IDS, qui a été observée pour les 95 Chapitre III : des défauts dans les HEMTs températures 150K et 200 K aux alentours de la tension de seuil. En effet, ce phénomène peut être expliqué par le scénario décrit précédemment où les charges injectées par la grille sont piégées par les états de surface dans la zone d'accès grille-drain. Dans ce cadre, nous avons voulu étudier l'évolution en température des caractéristiques IDS(VDS) à VGS = -3 V, voisine de la tension de seuil d'après les mesures IDS(VGS). La figure III.8.b montre les caractéristiques IDS (VDS), pour différent es températures , mesurées à VGS= -3 V et pour un temps d' acquisition du courant égal à 500 ms. Les mesures à basse température (< 225K) révèlent la présence d'un effet kink. Avant l'apparition du kink, nous pouvons constater une baisse de courant inhabituelle aux basses températures. Cet effondrement connu sous le nom de « collapse » du courant peut être également expliqué par la contribution des états de surface qui piègent les électrons puis finissent par les er sous l'effet du champ électrique appliqué entre grille et drain, d'où le « déclenchement » du kink. Nous pouvons remarquer aussi d'après le réseau IDS(VDS) que cet effet « collapse » du courant drain dépend fortement de la température puisque en chauffant l'échantillon, sa contribution diminue jusqu'à obtenir un comportement normal du transistor à la température ambiante. Nous avons donc une activation thermique des états de surface. Notons que dans tous les raisonnements nous avons éliminé l'hypothèse de l'ionisation par impact des porteurs qui peut induire un effet similaire à une sur-augmentation brusque du courant et provoquer la dynamique du kink. III-3) Mesures capacité-tension Comme nous l'avons déjà évoqué précédemment, les mesures capacitives restent une méthode moins complexe pour expliquer quelques phénomènes responsables des anomalies 96 Chapitre III : Caractérisations des défauts dans les H EMT s présentes dans les caractéristiques de sortie des transistors. Avec ce type de mesures nous ne serons pas confrontés à plusieurs effets tels que l'auto-échauffement, les effets de survitesse des électrons dans le canal et l'ionisation par impact des porteurs. Dans cette partie, nous allons effectuer une étude cryogénique de la capacité en fonction de la polarisation inverse CGS(VGS) sur des FATFET 100x160 μm2 de la plaque AEC1388. Ce type de géométrie a été choisi car la capacité mesurée est 400 fois plus grande que celle des transistors à faible longueur de grille. Les mesures ont été réalisées entre la grille et la source du composant à une fréquence de 1MHz. La figure III.9.a montre l'évolution de la capacité pour différentes températures allant de 100 K à 500K avec un pas de 25 K. A basse température, le changement brusque de la capacité entre -3 V et -3.5 V correspond à la déplétion totale du gaz 2D dans la zone interfaciale de l'hétérojonction AlGaN/GaN. Lorsque la température augmente, cette zone s'étale de plus en plus vers les tensions plus positives et la capacité diminue au fur et à mesure qu'on chauffe l'échantillon. Ceci provient de l'augmentation du courant de fuite de grille (tunnel et autres) à haute température qui entraine une accumulation des porteurs dans la couche barrière limitant l'effet de la déplétion du gaz 2D. Figure III.9 : (a) Mesures en fonction de la température de la capacité CGS(VGS) sur un FATFET 100x160 μm2 et (b) représentation en 3D de la variation de la capacité dC/dV en fonction de V GS à différentes températures Nous pouvons aussi remarquer un décalage de « la queue » des caractéristiques pour les tensions -4 V<VGS< -3.5 V. Par rapport à la mesure à 100 K, ce décalage varie dans le sens positif des tensions puis au delà de 250 K revient dans le sens négatif. Pour mieux observer cet effet, nous avons représenté en 3D sur la figure III.9.b la dérivée de la capacité par rapport à la tension inverse dCGS/dVGS (pF/V) pour les différentes températures. Le maximum de la des défauts dans les HEMTs courbe correspond au point d'inflexion de la capacité à l'hétérointerface donc à la tension de seuil du transistor. A partir de ce graphe nous pouvons distinguer le décalage positif de la tension de seuil à basse température. En effet, nous remarquons qu'entre la mesure à 100 K et celle à 150 K, le seuil s'est décalé vers la droite d'une valeur de +100 mV puis à partir de 175 K revient vers la valeur initiale. Nous assistons au même phénomène que celui observé dans le paragraphe précédent lors de l'extraction de la tension de seuil à partir des mesures IDS(VGS). En revanche, le décalage observé par cette méthode capacitive |ΔVth C-V | reste inférieur à celui obtenu par les mesures de courant |ΔVth Id-Vg | qui était de l'ordre de 350 mV. Le comportement similaire des deux mesures montre qu'un même mécanisme est responsable du décalage de la tension de se . Cet effet semble provenir des états de surface responsables de la déplétion locale du canal puisque dans les mesures CGS(VGS) les effets tels que l'ionisation par impact ou l'auto-échauffement du canal ne peuvent pas intervenir. L'évolution du pic des courbes dCGS/dVGS nous montre aussi certains effets qui accompagnent la déplétion du gaz 2D au voisinage de la tension de seuil. Dans la figure III.10.a, nous avons tracé dCGS/dVGS en fonction de VGS pour les températures comprises entre 100 K et 300 K. Figure III.10 : dC/dV en fonction de VGS à différentes températures (a) entre 100 K et 300 K avec un pas de 50 K et (b) entre 300 et 500 K avec un pas de 100 K.
9,597
2017AIXM0246_4
French-Science-Pile
Open Science
Various open science
2,017
Etudes structurales de fragments d'anticorps d'intérêt thérapeutique et biotechnologique
None
French
Spoken
7,492
17,715
The structures of the four nanobodies display a high level of homology, with an r.m.s.d. ranging from 0.69 to 0.99 Å on C atoms without the CDRs. The main differences arise from the CDRs, which are located at the N-terminal edge of the -sandwich. Indeed, CDR3, which generally mediates interaction with the epitope, is the most divergent. Its folding is different in the four structures: one -helix and one -helix in nb01, random coil only in nb02, random coil only or prolonged -strands in nb19 and one -helix in nb130 (Fig. 3). Paradoxically, the long CDR3s of nb01 and nb130 (17 and 21 residues, respectively) adopt a unique conformation in the crystal, suggesting a certain conformational stability. On the contrary, despite its shorter sequence (14 residues), the CDR3 of nb19 is more flexible, as it can adopt multiple distinct conformations. The CDR3 conformational heterogeneity Figure 3 Crystal structures of the four nanobodies nb01, nb02, nb19 and nb130 raised against the periplasmic domain of PorM. CDR1, CDR2 and CDR3 of each nanobody according to Kabat numbering (Kabat et al., 1991) are represented in green, blue and red, respectively. The Nand C-terminal extremities are labelled N and C, respectively. The different molecules present in the asymmetric unit are superposed (molecules A and B of nb01 and molecules A, B and D of nb19; molecule C of nb19, which is identical to molecule B, is not represented for the purposes of clarity). This figure was generated by PyMOL (Schrödinger). Acta Cryst. (2017). F73, 286–293 Duhoo et al. Camelid nanobodies as crystallization chaperones for PorM electronic reprint 291 research communications observed only in nb19 could be related to the substitution of the Phe47 present in nb01, nb02 and nb130 by an arginine residue in nb19 (Fig. 1). Indeed, the CDR3 of nb01, nb02 and nb130 folds over and packs against the hydrophobic side chain of the framework Phe47, while the CDR3 of nb19 is somewhat repulsed by the side chain of Arg47. 3.3. Use of nanobodies as crystallization chaperones We have previously obtained diffracting crystals of pPorM-T and of its selenomethionine derivative; native and MAD data sets were collected and an experimental map was calculated (Stathopulos et al., 2015). However, building of the C-terminal domain of pPorM-T was challenging, probably owing to the higher thermal motion of this domain. We decided to use nanobodies as crystallization chaperones, with the assumption that complex formation may minimize the conformational flexibility of the target. Therefore, crystallization trials of pPorM-Cter in complex with its specific nanobodies nb19 and nb130 were performed. Crystals of pPorM-Cter in complex with nb130 were obtained in space groups P2 and P21 that diffracted to 2.5 and 2.15 Å resolution, respectively (Fig. 2). In an attempt to improve the resolution, the P21 crystals were dehydrated, resulting in crystals in a new space group, P1, that diffracted to 2.1 Å resolution. Structure determination of the complex is in progress using the nb130 structure and the partial model of pPorM-T as a model for molecular replacement. The same strategy of co-crystallization with nanobodies was applied in order to overcome our inability to obtain exploitable pPorM-Nter crystals. Indeed, all of the native or selenomethionine-derivative crystals that we obtained for this construct were twinned and therefore were not usable to solve the structure ab initio. Crystallization trials of complexes with nb01 or nb02 were then performed and crystals of pPorM-Nter in complex with nb01 were obtained that diffracted to 2.4 Å resolution (Fig. 2). 4. Concluding remarks In recent years, nanobodies have been intensively used as crystallization chaperones in structural studies. Indeed, they preferentially bind concave and hinge regions of proteins and thus can help in the crystallization process of recalcitrant targets such as multi-domain proteins, large complexes and membrane proteins (Desmyter et al., 2015). In our case, nanobodies also turned out to be valuable tools in the structure-determination process. For pPorM-Cter, co-crystallization with the nanobody nb130 permitted the resolution of the structure to be increased, presumably by stabilizing a flexible domain of the protein. For pPorM-Nter, co-crystallization with the nanobody nb01 permitted us to obtain untwinned crystals, in contrast to the protein alone. Molecular replacement was performed with the structure of the nanobody as a starting model, providing the initial phases used to calculate electron-density maps. Recently, we solved the structure of a truncated construct of TssM using the same 292 Duhoo et al. strategy. TssM is a central component of the membrane complex of the type VI secretion system. The construct TssM32Ct (residues 836–1129 of the TssM periplasmic domain) was co-crystallized with a specific nanobody (Nguyen et al., 2015) and its structure was built into the electron-density maps obtained after molecular replacement using the structure of the nanobody as a starting model (Durand et al., 2015). As pPorM-Nter is smaller than TssM32Ct (211 and 293 residues, respectively) and as the crystals of the two proteins in complex with their respective nanobodies diffracted to similar resolutions (2.4 Å for pPorM-Nter and 1.92 Å for TssM32Ct), we are confident that we will succeed in building the structure of pPorM-Nter. Acknowledgements We would like to thank the European Synchrotron Research Facility (ESRF) and the SOLEIL synchrotron for beamline allocation. Funding information Fund ing for this research was provided by: Centre National de la Recherche Scientifique; French Infrastructure for Integrated Structural Biology (FRISBI) (award No. ANR -10INSB-05-01 ); Agence Nationale de la Recherche (award No. ANR-15-CE 11-0019-01 ); Ministère de l’Education Nationale, de l’Enseignement Superieur et de la Recherche (award No. doctoral fellowship for YD); Région PACA (award No. doctoral fellowship for JR); Eiffel program from the French Ministère des Affaires Etrangères (award No. doctoral fellowship for T NTT ). References Adams, P. D. et al. (2010). Acta Cryst. D66, 213–221. Arbabi Ghahroudi, M., Desmyter, A., Wyns, L., Hamers, R. & Muyldermans, S. (1997). FEBS Lett. 414, 521–526. Armitage, G. C. (1996). Ann. Periodontol. 1, 37–215. Blanc, E., Roversi, P., Vonrhein, C. Flensburg, C., Lea, S. M. & Bricogne, G. (2004). Acta Cryst. D60, 2210–2221. Conrath, K., Pereira, A. S., Martins, C. E., Timóteo, C. G., Tavares, P., Spinelli, S., Kinne, J., Flaudrops, C., Cambillau, C., Muyldermans, S., Moura, I., Moura, J. J. G., Tegoni, M. & Desmyter, A. (2009). Protein Sci. 18, 619–628. Chen, V. B., Arendall, W. B., Headd, J. J., Keedy, D. A., Immormino, R. M., Kapral, G. J., Murray, L. W., Richardson, J. S. & Richardson, D. C. (2010). Acta Cryst. D66, 12–21. Desmyter, A., Farenc, C., Mahony, J., Spinelli, S., Bebeacua, C., Blangy, S., Veesler, D., van Sinderen, D. & Cambillau, C. (2013). Proc. Natl Acad. Sci. USA, 110, E1371–E1379. Desmyter, A., Spinelli, S., Roussel, A. & Cambillau, C. (2015). Curr. Opin. Struct. Biol. 32, 1–8. Desmyter, A., Transue, T. R., Ghahroudi, M. A., Dao Thi, M.-H., Poortmans, F., Hamers, R., Muyldermans, S. & Wyns, L. (1996). Nature Struct. Mol. Biol. 3, 803–811. Durand, E., Nguyen, V. S., Zoued, A., Logger, L., Péhau-Arnaudet, G., Aschtgen, M.-S., Spinelli, S., Desmyter, A., Bardiaux, B., Dujeancourt, A., Roussel, A., Cambillau, C., Cascales, E. & Fronzes, R. (2015). Nature (London), 523, 555–560. Emsley, P., Lohkamp, B., Scott, W. G. & Cowtan, K. (2010). Acta Cryst. D66, 486–501. Evans, P. (2006). Acta Cryst. D62, 72–82. Camelid nanobodies as crystallization chaperones for PorM electronic reprint Acta Cryst. (2017). F73, 286–293 research communications Hamers-Casterman, C., Atarhouch, T., Muyldermans, ., Robinson, G., Hammers, C., Songa, E. B., Bendahman, N. & Hammers, R. (1993). Nature (London), 363, 446–448. Kabat, E. A., Wu, T. T., Perry, H. M., Gottesmann, K. S. & Foeller, C. (1991). Sequences of Proteins of Immunological Interest, 5th ed. Bethesda: National Institutes of Health. Kabsch, W. (2010). Acta Cryst. D66, 133–144. Kantardjieff, K. A. & Rupp, B. (2003). Protein Sci. 12, 1865–1871. Karplus, P. A. & Diederichs, K. (2012). Science, 336, 1030–1033. Lartigue, A., Gruez, A., Briand, L., Pernollet, J.-C., Spinelli, S., Tegoni, M. & Cambillau, C. (2003). Acta Cryst. D59, 919–921. Nguyen, V. S., Spinelli, S., Desmyter, A., Le, T. T. H., Kellenberger, C., Cascales, E., Cambillau, C. & Roussel, A. (2015). Acta Cryst. F71, 266–271. Robert, X. & Gouet, P. (2014). Nucleic Acids Res. 42, W320– W324. Acta Cryst. (2017). F73, 286–293 Roussel, A. & Cambillau, C. (1991). Silicon Graphics Geometry Partners Directory, p. 81. Mountain View: Silicon Graphics. Sato, K., Naito, M., Yukitake, H., Hirakawa, H., Shoji, M., McBride, M. J., Rhodes, R. G. & Nakayama, K. (2010). Proc. Natl Acad. Sci. USA, 107, 276–281. Spinelli, S., Frenken, L., Bourgeois, D., de Ron, L., Bos, W., Verrips, T., Anguille, C., Cambillau, C. & Tegoni, M. (1996). Nature Struct. Biol. 3, 752–757. Stathopulos, J., Cambillau, C., Cascales, E., Roussel, A. & Leone, P. (2015). Acta Cryst. F71, 71–74. Vagin, A. & Teplyakov, A. (2010). Acta Cryst. D66, 22–25. Vincent, M. S., Canestrari, M. J., Leone, P., Stathopoulos, J., Ize, B., Zoued, A., Cambillau, C., Kellenberger, C., Roussel, A. & Cascales, E. (2017). J. Biol. Chem. 292, 3252–3261. Wang, S., Ma, J., Peng, J. & Xu, J. (2013). Sci. Rep. 3, 1448. Winn, M. D. et al. (2011). Acta Cryst. D67, 235–242. Duhoo et al. Camelid nanobodies as crystallization chaperones for PorM electronic reprint 293 3.2.3 Cristallisation du nanobody nb02 en X et résolution de la structure Dans le cadre d’une collaboration avec le laboratoire IBMC (Claude Sauter, équipe Biologie des ARNt et pathogénicité), j’ai eu l’occasion d’étudier la structure du nanobody nb02 à température ambiante. En tant que bêta-testeur de puces micro-fluidiques de cristallisation, les ChipX-3, il me fallait tester la cristallisation et la collecte de jeux de données sur des cristaux non congelés. Pour cela, j’ai choisi de cristalliser à nouveau ce nanobody. 3.2.3.1 Purification et cristallisation en ChipX-­‐3 du nanobody nb02 Un lot de nb02 purifié quelques mois auparavant et conservé jusque là à 4°C a été utilisé. Il a été purifié une nouvelle fois, afin d’éliminer les agrégats et vérifier la qualité de la protéine, à l’aide d’une colonne d’exclusion de taille Superdex 75 16/60 (GE Healthcare) (Figure 3.2.2). Le pic élué en sortie de colonne était symétrique et son analyse sur gel ne présentait pas de contaminant. Une puce ChipX a été utilisée pour réaliser l’optimisation de la condition de cristallisation, initialement trouvée par la technique de cristallisation en diffusion vapeur, dans les mêmes conditions de concentration protéique (13,78 mg/ml). Des cristaux sont apparus après 4h puis ont continué de croitre et apparaître pendant près d’un mois (Figure 3.2.3). 75 en t em c ar g Pi Ch.t 112 66 44 35 Pic &'( M kDa!!+%:+" %""" 25 18 14 $#"" $"""!#""!!$"/:/.!!)*:%+!!!"!!"!%" $'$ $'$'# $'. $'/ $'$$ $0$$$0/ $0. $0# $0$0$ $1% $1) $1* $1+$1$" $2$% $2/ $2. $2# $2$2$ $3% $3) $3* $3+ $3$" $4$%!)"!*"!+" $"" $%" $4/ $4. 56789 $)" &,! @BCDEF) +*6*6A) 8DEBBHKGBLJ) ID) JKJLRLI`) JR?6) MLDE) HEBNGKUUBNKGBLJ) FJ) $YBMg*) 1XPObJLO]PJbbS!VS!ZJ!ROPLMS!VS! NOZOKKS!9TQSPVSW!'%!(&B&E)!5S!QMN!VS!QPOLUMKS!SRL!UZTU!JQPaR!A"_A!bZ!VS!LJbQOK)!*KRSPL6!4KJZgRS!RTP!9/9H8423!VSR! `PJNLMOKR!VS!QTPM`MNJLMOK)!0KS!`PJNLMOK!VT!NXJP]SbSKL!SL!TKS!VT!QMN!UZTU!OKL!ULU!VUQORUR)!>)L!6!>JPcTSTP!VS!LJMZZS))! @BCDEF)+*6*+A)"[FSMUFN)IF)HEBNGKD[)IF)JR?6)LRGFJDN)FJ)$YBMga+*)5SR!QPUNMQMLUR!NPMRLJZZMKR!ROKL!JQQJPTR!VJKR!ZS! bMNPOHNJQMZZJMPS! SK! cTSZcTSR! XSTPSR! SL! ZSR! NPMRLJTW! LSZR! cTS! RTP! ZSR! QXOLOR! OKL! QOTRRU! SK! TKS! RSbJMKS)! 5J! JPPS! POT]S!SK!JR!e!]JTNXS!VSR!QXOLOR!PSQPURSKLS!TKS!UNXSZZS!VS!(EE!Öb) '&! 3.2.3.2 Collecte in-­‐situ des cristaux de nb02 Les cristaux du nanobody nb02 obtenus en ChipX-3 ont été collectés lors d’une mission sur la ligne de lumière PROXIMA 2A à SOLEIL (Gif-sur-Yvette). Deux jeux de données ont été enregistrés sur un cristal situé proche de l’entrée de la proté ine, au niveau des capillaires C et D (EmbCD, Figure 3.2.4). Ils ont servi, après combinaison des données, à l’obtention d’un jeu de données complet à une résolution allant jusqu’à 1,9 Å. La structure a été déterminée par remplacement moléculaire à l’aide de la structure de nb02 obtenue à 100°K. Les statistiques de la collecte des données et de l’affinement sont présentées dans le Tableau 3.3.1. Après affinement, les deux structures cristallographiques ont été comparées par alignement à l’aide du logiciel PyMOL (Figure 3.2.5). Figure 3.2.4: Cristal de nb02 en ChipX-­‐3, collecté in-­‐situ. Le cristal se trouve au niveau de l’entrée de la protéine, au milieu des capillaires C et D. 77 B A 90! C 90!!! @BCDEF) +*6*2A) $LSMKEKBNLJ) IFN) NGEDHGDEFN) IF) JR?6) HLUUFHGVFN) h) GFSMVEKGDEF) HE`LCVJBZDF) P2,#cQ) FG) h) GFSMVEKGDEF)KSRBKJGFX)MKE)KUBCJFSFJG)h)U7KBIF)ID)ULCBHBFU)8`#1,*)5SR!RLPTNLTPSR!OKL!ULU!NOZOPUSR!RSZOK!ZSTPR!H `JNLSTPR)! 5S! PURMVT! 25+H(! MKVMcTS! ZqSWLPUbMLU! +HLSPbMKJZS! SL! ZS! PURMVT! 93-H((#! ZFSWLPUbMLU! 1HLSPbMKJZS)!.A! @TS! VS! NoLU)!/)A)@TS!VS!VSRRTR!QJP!TKS!POLJLMOK!VS!7Ew)!$)A)@TS!VS!VSRROTR!QJP!TKS!POLJLMOK!VS!7Ew)!5FSKNJVPU!ZST!VURM]KS!ZJ! OTNZS!2%7H<&'_!QPMKNMQJZS!VM``UPSKNS!SKLPS!ZSR!VSTW!RLPTNLTPSR)!!!! @BCDEF) +*6*;A) oLLS) KTKJG) NDE) UK) EVCBLJ) 25a;k) IFN) NGEDHGDEFN) IF) JR?6) h) GFSMVEKGDEF) HE`LCVJBZDF) P.Q) FG) KSRBKJGF) P/Q*) 5S! PURSJT! VFMKLSPJNLMOK! VSR! PURMVTR! J! ULU! PSQPURSKLU! QOTP! ZSR! VSTW! RLPTNLTPSR! e! ZFJMVS! VT! ZO]MNMSZ! 8g>.5)! 1XJcTS! VMRLJKNS! MK`UPMSTPS! e! #! Å a été affichée (pointillés noirs). Les cartes de densités Fo-Fc et 2Fo-Fc sont illustrées sous les structures correspondantes, avec des rmsd respectivement de 2,5 et 1,0. 'A! D’un point de vue global, les deux structures n’ont que de légères différences (Figure 3.2.5A). La structure de nb02 collectée à température ambiante comporte de nombreuses conformations alternatives. Malgré tout, il ne manque aucune densité électronique dans la carte et le nanobody a pu être construit entièrement, boucles comprises. La structure issue du cristal congelé, quant à elle, avait donné plus de difficultés pendant la construction et l’affinement, principalement au niveau de la boucle comprenant les résidus 59 à 67, où la densité était faible (Figure 3.2.6). C’est précisément au niveau de cette boucle que se trouve la seule différence notable entre ces deux structures (Figure 3.2.5C). Le réseau des interactions des résidus de cette boucle a été cartographié (Figure 3.2.6A et B). Il présente des différences dues à des rotamères pour les résidus Thr60 et Ser62. Pour la structure à température ambiante, la boucle semble moins compacte, plus distante du feuillet béta qui précède, résultant à une meilleure définition en hélice alpha. 3.3 Etudes structurales de pPorM 3.3.1 Structure de pPorM-­‐Nt La protéine pPorM-Nt correspond à la partie périplasmique N-terminale de PorM (résidus 44 à 217). Nous avons choisi dans l’équipe d’étudier cette protéine chez E. coli, en expression recombinante. Pour cela, j’ai réalisé le clonage dans le vecteur d’expression pLIC03 (fourni par BioXtal, optimisé pour la technologie « Ligation-Independent Cloning » LIC(56)) en utilisant la technique de RF cloning. Ce vecteur est dérivé du vecteur pET28 a+ (Novagen), il contient en amont de la séquence d’intérêt une étiquette de six histidines et un site de coupure à la protéase TEV, laissant la possibilité d’ôter l’étiquette. Après purification du produit de PCR et transformation en cellules DH5a, la séquence de l’ADN purifié a été vérifiée et validée. D’après une analyse in silico à l’aide de l’outil ProtParam d’ExPaSy (http://web.expasy.org/protparam/), il s’agit d’une construction de poids moléculaire 21,947 kDa. 3.3.1.1 Protéine pPorM-­‐Nt native : expression, purification et analyses La protéine pPorM-Nt a été exprimée en bactéries Rosetta (DE3) pLysS (Novagen). Après lyse des bactéries, la protéine est extraite du lysat clarifié par purification sur colonne de chromatographie d’affinité au Ni2+ (GE Healthcare). Elle est éluée à l’aide d’un tampon 79 contenant 250 mM d’Imidazole puis injectée sur une colonne d’exclusion de taille Superdex 75 16/60 (GE Healthcare) pour une dernière étape de purification. Le pic correspondant à pPorM-Nt est élué à un volume d’élution de 70 mL <M]TPS!#)#)(). D’après la calibration de cette colonne, ce volume d’élution correspondrait à une protéine globulaire de 19 kDa, semblant indiquer que pPorM-Nt est monomérique. La fraction du pic déposée sur SDSPAGE montre une migration allant jusqu’à environ 23 kDa, ce qui correspond à notre poids moléculaire théorique (<M]TPS!#)#)(). c Pi M KDa.t Pic VE = 70mL '() 112 66 &"" 44 35 %"" 25 18 14 $"" #""!!" (+ (#" (#$ -## -. -/ -0 -% -# 1$ 1& 1* 1+ 1#" 1#$ 2## 2. 2/ 20 2% 2# 3$ 3& 3* 3+ 3#" 3#$4#$!!"!$"!&"!*"!+" #"" #$" # & " ', @BCDEF)+ *+ *3A)8DEBBHKGBLJ)IF)UK ) MELGVBJF ) M8LE# a& G ) NDE ) HLUL JJ F )(DM FEI F[)k2)3;d;?*)5J!QP OLUM KS!SRL!UZTUS!JdSN! TK! dOZTbS! VFUZTLMOK! VS! 'E! b5! VS! LJbQOK! ;SQSR! (E! b>! Q;! '_#_! +J1Z! (%E! b>)! 5J! bM]PJLMOK! RTP! 9/9H8423! (%r! VFTKS!`PJNLMOK!VT!QMN!PUdaZS!TKS!JKVS!TKMcTS!bM]PJKL!SK!VSRROTR!VS!ZJ!JKVS!"%!m/J!VT!bJPcTSTP!VS!LJMZZS![>)L^_!NS! cTM!NOPPSRQOKV!e!ZJ!LJMZZS!JLLSKVTS!QOTP!TK!bOKObaPS!VS!Q8OP>H+L![SKdMPOK!""!m/J^)! Des tests de stabilité à 4°C ont montrés que la protéine ne subit pas de dégradation jusqu’à 10 jours et est donc stable. Elle supporte également très bien la concentration puisqu’elle peut être concentrée jusqu’à 12 mg/mL sans aucune précipitation. AE! L’analyse du contenu en structures secondaires de pPorM-Nt par dichroïsme circulaire semble indiquer un repliement « tout alpha » (<M]TPS! #)#)"). En effet, la courbe d’ellipticité moyenne par résidu en fonction de la longueur d’onde est proche de la courbe théorique correspondant à une protéine entièrement constituée d’hélices alpha : elle possède deux minima, autour de 207 nm et 222 nm. L’analyse par le serveur en ligne Dichroweb confirme cette tendance avec un pourcentage de 80% en hélices alpha.! @ BCDEF )+*+*6A)$ LDER F) IF ) IBHYEL_NSF)HBEHDUKBEF)IF)M8LE# a &G)KD [ )40)ULBJGKBJN*)5J!bSRTPS!J!ULU!PUJZMRUS!SKLPS! (7E! SL!"&E!Kb!bJMR!RSTZSR!ZSR!VOKKUSR!NObQPMRSR!SKLPS!"E#!SL!"&E!Kb!ROKL!SWQZOMLJZSR)!/STW!bMKMbJ!ROKL!dMRMZSR!e! "E7!Kb!SL!"""!Kb)! @BCDEF)+*+*+A).JKU`NF)MKE)("$a#.,()IF)UK)MELGVBJF)M8LE#a&G*)$LULJJF)(YLIF[)Wca>?6*2*!5S!QMN!VS!QPOLUMKS!J! ULU!UZTU!e!TK!dOZTbS!VS!"(_"%!b5!SL!ZJ!bJRRS!bOZUNTZJMPS!J!ULU!SRLMbUS!e!""!m/J![QOMKLMZZSLR!POT]SR^)! A(! La protéine a également été analysée par SEC-MALS (Figure 3.3.3). Le poids moléculaire calculé, de 22 kDa, est très proche du poids moléculaire théorique, confirmant ainsi un état monomérique de la protéine. Afin de déterminer la structure de la protéine pPorM-Nt, des études par cristallographie aux rayons X ont été initiées. Pour obtenir l’information de phase nécessaire à la résolution de la structure, deux méthodes peuvent être appliquées : l’utilisation des phases d’un modèle d’homologie de séquence supérieure à 30% (remplacement moléculaire) ou le calcul des phases de la structure à partir de métaux lourds (détermination de structure ab-initio). Aucune des structures actuellement disponibles dans la RCSB PDB ne peut servir de modèle à la protéine pPorM-Nt pour un remplacement moléculaire protéine. Deux stratégies ont alors été appliquées en parallèle : l’utilisation d’atomes de Sélénium incorporés aux Méthionines (SeMet) et la mise en complexe de pPorM-Nt avec un nanobody. 3.3.1.2 Protéine pPorM-­‐Nt produite avec des Selenométhionines : expression et purification L’incorporation d’atomes de Sélénium à la protéine pPorM-Nt a été réalisée au moment de l’expression bactérienne. La protéine surexprimée, nommée pPorM-Nt SeMet, a été purifiée du lysat bactérien selon le même protocole qu’utilisé pour la protéine native. Après injection du lysat clarifié bactérien sur une colonne de chromatographie d’affinité Ni2+ (GE Healthcare), pPorM-Nt SeMet est éluée avec un tampon contenant 250 mM d’Imidazole. Le pic récupéré est alors injecté sur une colonne de chromatographie d’exclusion de taille (Figure 3.3.4). Sur une colonne Superdex 75 26/60 (GE Healthcare), la protéine est éluée à un volume de tampon de 168 mL, ce qui correspond, d’après la calibration, au volume d’élution attendu pour une protéine globulaire de 33 kDa Le dépôt sur SDS-PAGE d’une fraction du pic élué montre une bande unique migrant à environ 23 kDa. Le rendement moyen de purification pour cette protéine est de 66,3 mg pour 2L de culture. 82 '"" "#!!" #!!"#!!"#!!"#$#% & '#!"! ()* !!!!!!!!!"! & ""!"!!"!!"! % "" ! $ "" # "" !!#"&7&/ !! "!!#% 171 ' )$ )' ), )# $ -. -/ -% 0# 0& 01 0## 2#" 2/ 2% 3# 3& 31 3## 4#"41 4& 4# 5% 5/ 5. 6#$ 6, 6' 6$!!"!'" #"" #'" $"" 6# $'" (+ @BCDEF)+*+*=A)8DEBBHKGBLJ)IF)UK)MELGVBJF)M8LE#a&G)(F#FG*)$LULJJF)(DMFEIF[)k2)6;d;?*)5J!QPOLUMKS!SRL!UZTUS!e! TK! dOZTbS! VFUZTLMOK! @3! VS! (&A! b5)! 5J! bM]PJLMOK! RTP! 9/9H8423! VFTKS! `PJNLMOK! VT! QMN! PUdaZS! TKS! JKVS! TKMcTS! bM]PJKL!ROTR!ZJ!JKVS!VS!"%!m/J!VT!bJPcTSTP!VS!LJMZZS![>)L^)! #"#"$"# ;,)&34@4.&?,19OV'=-+-,8,/K.-8Y$.,0.-8Y!.G.)(*4.4-.2,)&[email protected]'.&01(7(2+'(,-. Les nanobody nb01 et nb02 se fixant tout deux sur la protéine pPorM-Nt, les deux anticorps sont utilisés comme chaperonne de cristallisation. Pour les deux complexes, la mise en complexe est faite après l’étape de purification du nanobody sur colonne de chromatographie d’affinité Ni2+ (GE Healthcare). L’excès de nanobody est séparé du pic de complexe par purification sur chromatographie d’exclusion de taille (< M]TPS!#)#)%). A#!! M.t Pi cC Pi x c n 01 b0 1 '#"" '()!!567!18!93!:!%";-# &"" kDa 112 66 44 35 25 18 14 '"""!&""!%""!!:;<!1=!>3!?!+"@&& kDa 112 66 44 35 25 %#" %"" 18 14 $#"!$"" M.t Pi cC Pi x c n 02 b0 2 B A ()* $""!!567!<="'! 93!:!&,;"/!#""!!!"!#"!!"!!:;<!AB"%! >3!?!,&@"*!!'#-;"- ')' '), ')'). ')/ ')'' '0'# '0'" '0& '0% '0$ '0# '1' '1, '1'1. '1/ '1'''2'#'2'" '2& '2% '2$ '2# '3' '3, '3'3. '3/ '3'' '4'# '4'" '4& '4%!!"!#"!$"!%"!&" '""!!" '#"!%" (+ $($ $(* $(. $($" $/$% $/0 $/+ $/& $1$ $1* $1. $1$" $2$% $20 $2+ $2& $3$ $3* $3. $3$" $4$% $40$4. !*"!+"!," $"" $%" 56789 $*" '- @BCDEF) +*+*2A) 8DEBBHKGBLJ) IFN) HLSMUF[FN) M8LE#a&GdJKJLRLI`*) $LULJJF) (DMFEIF[) k2) 3;d;?*).)A) 1ObQZSWS! Q8OP>H+LBKE()! 5S! NObQZSWS! [1W^! SRL! UZTU! e! TK! dOZTbS! VFUZTLMOK! @3! VS! &E_%"! b5)! 5FSWNaR! VS! KE(! SRL! UZTU! e! TK! dOZTbS! VS! A#_E7! b5)! /STW! JKVSR! ROKL! dMRMZSR! ZOPR! VS! ZJ! bM]PJLMOK! RTP! 9/9H8423! QOTP! ZS! QMN! VS! NObQZSWS_! ZFTKS! ROTR!ZJ!JKVS!e!"%!m/J!VT!bJPcTSTP!VS!LJMZZS![>)L^!NOPPSRQOKVJKL!e!Q8OP>H+L_!ZFJTLPS!SKLPS!ZSR!JKVSR!e!(A!SL!($! m/J_!NOPPSRQOKVJKL!e!KE()!/)A)1ObQZSWS!Q8OP>H+LBKE")!5S!NObQZSWS!SRL!UZTU!e!TK!dOZTbS!VFUZTLMOK!VS!&E_##!b5! SL!ZFSWNaR!VS!KE"!e!TK!dOZTbS!VFUZTLMOK!VS!A#_E$!b5)!5J!bpbS!bM]PJLMOK!cTS!NSZZS!VT!NObQZSWS!JdSN!KE(!SL!dMRMZS! RTP!9/9H8423)!! Pour chaque purification, les pics de complexe et d’excès de nanobody sont bien séparés. Les volumes d’élution sont similaires : ils sont, pour une purification sur colonne Superdex 75 16/60 (GE Healthcare), autour de 60 mL pour le pic de complexe et 83 mL pour le nanobody. Selon la calibration de cette colonne, un volume d’élution de 60 mL correspond à une protéine globulaire de 34 kDa ce qui est en accord avec le poids moléculaire théorique des complexes de 35 kDa environ. Le dépôt sur SDS-PAGE confirme la présence majoritaire du complexe dans le pic élué. # "#"$">.B'0/4*.21(*'+33,E1+&F([04*./4.3+.&1,'5(-4.&? ,19 OV '. Les cristallogenèses de la protéine pPorM-Nt native et SeMet ont été menées en utilisant la diffusion de vapeur en gouttes assises. Pour la protéine native, les screens généraux STURA (Molecular Dimension), MDL (Molecular Dimension), PEG I et PEG II (Qiagen) ont d’abord été testés. Des premiers cristaux de pPorM-Nt sont apparus après 8 jours dans différentes conditions : 200 mM calcium chloride avec 20% de PEG 3350, 200 mM calcium acétate avec 20% de PEG 3350 et 100 mM de Tris pH 8,5 200 mM calcium chloride avec 20% de PEG 4000. Ces conditions étant similaires, des optimisations ont été lancées en combinant les composés A$!! redondants. Des cristaux sont apparus après une semaine en 200 mM calcium chloride avec 20% de PEG 4000, à pH 7,5 (<M]TPS!#)#)&A). La protéine pPorM-Nt SeMet a été cristallisée suite à l’obtention des cristaux de la protéine native. Les screens PEG I et PEG II ont donc été privilégiés, étant ceux ayant donné les cristaux. De petits cristaux se sont développés en 100 mM de Tris pH 8,5 200 mM calcium chloride avec 25% de PEG 4000 en une semaine (<M]TPS! #)#)&B). Bien qu’une optimisation ait été faite en gouttes assises ainsi qu’en gouttes suspendues en boîtes LIMBRO, la taille des cristaux n’a pas augmentée. A B @BCDEF)+*+*;A)$EBNGKD[)IF)UK)MELGVBJF)M8LE#a&G*).A)Q8OP>H+L!KJLMdS))/A)Q8OP>H+L!9S>SL) Après avoir été pêchés et cryo-protégés, ces cristaux ont été congelés sous flux d’azote afin de tester leur diffraction à une source de rayonnement synchrotron. Les cristaux de pPorM-Nt ont été envoyés à une mission synchrotron sur la ligne de lumière ID23-2 à l’ESRF, Grenoble. L’un des cristaux a diffracté jusqu’à une résolution de 1,9 Å et un jeu d’images a été collecté. Cependant, à l’issue du traitement des données, l’analyse menée par le programme SCALA (ccp4) a révélé une fraction de twin de 0,47, valeur se rapprochant de la fraction 0,5 d’un twinning parfait mérohédral. Le groupe d’espace trouvé, P6422, n’est normalement pas sujet au twinning des données, sauf dans le cas de twin parfait du groupe de Laue où il peut s’agir en réalité d’un groupe d’espace P312, P321 P6. Le retraitement des données dans ces différents groupes d’espaces n’a pas permis de débloquer la situation. Les programmes spécialisés dans le contournement du twin, utilisant les lois de twin, tels que Detwin de la suite CCP4, phenix.refine avec l’option twin et CNS n’ont pas non plus aidé à finir l’affinement de la structure. Les cristaux de pPorM-Nt SeMet ont été envoyés sur Proxima 1 à SOLEIL, Gif-surYvette. La présence d’atomes de Sélénium a été confirmée à l’aide d’un scan d’énergie. Un des cristaux a diffracté jusqu’à une résolution maximale de 3,5 Å et trois jeux d’images ont A%! été collectés : un jeu à la longueur d’onde correspondant au pic d’absorption du Sélénium, un second à celle du point d’inflexion du pic, calculé à partir du spectre d’énergie, et un troisième à une longueur d’onde après le pic. Nous n’avons malheureusement pas réussi à trouver une solution distincte, au moment de la recherche des atomes de Sélénium, permettant le calcul de cartes de Patterson et donc à calculer des phases. La structure n’a donc pu être résolue. Afin de contourner ces problèmes de twin, plusieurs stratégies ont été envisagées comme le changement de température au moment de la cristallogenèse, le microseeding ou la cristallisation en micro-capillaires (ChipX, Claude Sauter IBMC Strasbourg). Mais l’une des idées principales a été de se concentrer sur l’utilisation des nanobody comme chaperonnes de cristallisation. 3.3.1.5 Etudes cristallographiques des complexes pPorM-­‐Nt/nb01 et pPorM-­‐Nt/nb02 Les complexes pPorM-Nt/nanobody ont été cristallisés en utilisant la méthode de diffusion de vapeur en gouttes assises. Deux conditions de cristallisation ont été définies pour le complexe pPorM-Nt/nb02. La première est constituée de 100 mM de MES pH 6,5 25% PEG 4000 et des aiguilles y sont apparues après 65 jours (Figure 3.3.7A, image de gauche). La seconde est composée de 100 mM d’imidazole malate pH 6 avec 20% de PEG 4000 et des objets cristallins s’y sont formés après 45 jours (Figure 3.3.7A, image de droite). Les cristaux de ces deux conditions n’ont pu être reproduits. 86 A B C! @BCDEF)+*+*kA)$EBNGKUUBNKGBLJ)IFN)HLSMUF[FN)M8LE#a&GdJKJLRLI`*).A)$LSMUF[F)M8LE#a&GdJR?6*)/A)1ObQZSWS! Q8OP>H+LBKE(!e!("!b]Bb5))$A)1ObQZSWS!Q8OP>H+LBKE(!e!(&!b]Bb5) De nombreuses conditions de cristallisation ont été trouvées pour le complexe pPorM-Nt/nb01. Parmi elles se trouvent la condition 100 mM CHES à pH 9,5, 30% PEG 3000. Les cristaux, apparus après un jour, ont été testés sur la ligne ID23-2 de l’ESRF (<M]TPS!#)#)'B, image de gauche). Leur diffraction aux rayons X n’est cependant pas allée au delà de 6 Å. Il en a été de même pour les cristaux obtenus dans la condition 200 mM de NaCl, 100 mM de Tris pH 8,5 et 25% PEG 3350, qui ont diffracté à une résolution maximale de 5 Å (<M]TPS!#)#)'B, image de droite). Toutes ces conditions ont été trouvées à une concentration en complexe de 12 mg/mL mais une autre condition de cristallisation a pu être définie à 16 mg/mL. Après deux jours, des cristaux superposés sont apparus en 100 mM Bis-Tris pH 7 25% PEG 3350 (<M]TPS! #)#)'C). Au moment de les pêcher, cet amas s’est séparé en trois parties qui ont toutes les trois été congelées et envoyées sur la ligne de A'! lumière Proxima 2. La partie centrale de cet amas a diffracté à une résolution maximale de 2,3 Å. Un jeu de données a été enregistré puis traité au laboratoire. Le nanobody nb01 dont la structure avait été résolue au préalable (numéro d’accession PDB : 5LZ0) a été positionné par remplacement moléculaire. Ce phasage initial a permis d’obtenir les premières cartes de densité électronique. Plusieurs cycles de construction et affinement du modèle dans les cartes résiduelles ont permis d’obtenir la structure d’une grande partie de pPorM-Nt, allant du résidu 70 à 216 (Figure 3.3.8C). La structure finale du complexe est présentée dans la Figure 3.3.8A. Les statistiques de la collecte des données et de l’affinement sont présentées dans le Tableau 3.3.1. Les structures de nb01 libre ou complexé à pPorM-Nt sont quasiment identiques (Figure 3.3.8B). Seuls quelques changements minimes sont visibles au niveau des boucles des CDR. Le repliement général de pPorM-Nt peut être décrit comme un ensemble de quatre hélices antiparallèles avec une topologie haut-bas haut-bas avec un pas à droite. La comparaison de cette structure avec la base de données PDB en utilisant le serveur DALI a révélé que le domaine pPorMNt montre une forte similarité structurale avec une kinase d’adhésion focale (PDB 3B71, (57)) avec un Z-score de 10,3 et un rmsd de 2,7 Å (Figure 3.3.9A). Les 25 premiers résidus n’ont pas été construits, dû au manque de densité électronique dans la carte. Le domaine pPorM-Nt doit pouvoir relier la partie transmembranaire de PorM au domaine pPorM-Ct. Puisque les résidus 70 et 217 se trouvent du même côté, il est vraisemblable que les résidus manquants pointent du côté opposé. Ce changement de direction peut être induit par la proline PRO71, introduisant ainsi coude. Cet assemblage d’hélices présente une « cassure » de la troisième hélice, des résidus 125 à 136. Il s’agit là d’une particularité qui n’est pas présente sur la kinase d’adhésion focale (Figure 3.3.9A). La coloration selon les B-facteurs montre d’ailleurs qu’il s’agit d’une boucle plus mobile. Le nanobody nb01 interagit avec pPorM-Nt par l’intermédiaire de son CDR3 (résidus 97 à 100B, Figure 3.3.9B). Ces résidus forment des liaisons avec les résidus THR93, PHE94, ASP97, ALA101, ARG104, LYS136 et GLU143 de PorM. 88! @BCDEF)+*+*>A)(GEDHGDEF)HEBNGKUULCEKMYBZDF)IF)M8LE#a&G)FJ)HLSMUF[F)KTFH)JR?3*).)A)9LPTNLTPS!VT!NObQZSWS)!5SR! VSTW! QJPLSKJMPSR! ROKL! NOZOPUR! RSZOK! ZSTPR! H`JNLSTPR)! / A) 9TQSPQORMLMOK! VS! ZJ! RLPTNLTPS! VT! KJKOOVg! KE(! ROTR! RJ! `OPbS!NObQZSWUS!JdSN!ZJ!RLPTNLTPS!VS!ZJ!`OPbS!ZMPS![%5ÅE^)!5J!QPSbMaPS!SRL!NOZOPUS!SK!dSPL!SL!ZJ!RSNOKVS!SK!ZST)!$)A) 8PURSKLJLMOK!VS!ZJ!RLPTNLTPS!PUROZTS!VS!Q8OP>H+L![PURMVTR!'E!e!"('^)!0KS!NOZOPJLMOK!h!-JMKOÇ!i!SRL!TLMZMRUS_!VJKR! TK!VU]PJVU!JZZJKL!VT!ZST!`OKNU![+HLSP^!JT!POT]S![1HLSP^)!3ZZS!SRL!NOKRLMLTUS!VFTK!SKRSbZS!VS!$!XUZMNSR!SK!`OPbJLMOK! JKLMQJPJZZaZS!XJTLHJR!XJTLHJR)!5SR!PURMVTR!$$!e!&7!KFOKL!QT!pLPS!NOKRLPTMLR)! A7! @BCDEF)+*+*5A).JKU`NF)NGEDHGDEKUF)ID)HLSMUF[F)M8LE#a&GdJR?3*).)A)4ZM]KSbSKL!RLPTNLTPJZ![/45*^))9TQSPQORMLMOK! VS!ZJ!RLPTNLTPS!VS!Q8OP>H+L![dSPL^!JdSN! ROK!QZTR!QPONXS!dOMRMK!RLPTNLTPJZS![#='(_!ZST^)!/)A)-U]MOK!VFMKLSPJNLMOK!VS! KE(! JdSN! Q8OP>H+L)! 5SR! PURMVTR! MbQZMcTUR! ROKL! PSQPURSKLUR! SK! ~LOKR! SL! ZSTPR! MKLSPJNLMOKR! ROKL! J``MNXUSR! SK! QOMKLMZZUR!KOMPR)!5SR!VSTW!QJPLSKJMPSR!ROKL!NOZOPUR!RSZOK!ZSTPR!H`JNLSTPR)!! 7E! Nb02 température ambiante pPorM-Nt/nb01 Condition de cristallisation 0.1 M trisodium citrate pH 5.5, 20% PEG 3000 0.1 M bis-tris pH 7.0, 25%(w/v) PEG 3350 Collecte des données Cryo-protectant Synchrotron Ligne de lumière Groupe d’espace a, b, c (Å) α, b, γ (°) Résolution (Å)a Longueur d’onde (Å) Réflexions uniquesa Multiplicitéa Complétude (%)a I/sa Rmeas (%)a,b Rp.i.m. (%)a,c CC1/2 d Mosaïcité Contenu en solvant (%) SOLEIL PROXIMA-2A P43212 66,68 66,68 91,82 90 90 90 31,34 1,9 (1,968 1.9) 0,826561 16502 (1622) 3,7 (3.9) 92,41 (80,87) 8,61 (0,42) 8,57 (247,9) 4,255 (123,4) 0,997 (0,27) 0,106/0,029 67,2 10% glycérol SOLEIL PROXIMA-1 P21 80,35 100,12 80,41 90 93,82 90 42,47 2,4 (2,53 2,4) 0,9786 49059 (7020) 6,9 (6,8) 98,30 (96,7) 11,60 (1,0) 7,8 (203,3) 3,0 (77,4) 0,999 (0,755) 0,05 43,4 Molecular replacement Modèle de départ 5LMW 5LZ0 31,338-1,9 15648 (1340) 19,83/23,07 19,91-2,5 42814 (4179) 21,89/26, 62 1 8373 (8) 88 30,37 41,32 121,26 97,47 0,008 0,90 0,013 1,71 95,80 4,20 94,91 4,51 Qualité de l’affinement et du modèle Résolution (Å) and model quality Réflexions Rcryst/Rfree (%)e Nombre d’atomes Protéine (chaîne(s) dans l’UA) Eau B-facteurs moyens (Å2) Protéine Eau/ion Rmsdf Liaison (Å) Angle (°) Ramachandran plot (%) Régions les plus favorables Régions additionnelles autorisées Tableau 3.3.1 : Statistiques de collecte et d'affinement des structures du nanobody nb02 à température ambiante et du complexe pPorM-­‐Nt/nb01. Les valeurs entre parenthèses sont celles de la coquille de plus haute résolution. Pour nb02 à température ambiante, les deux valeurs de mosaïcité correspondent aux deux jeux de données initiaux. 3.3.2 Etudes SAXS de pPorM La structure cristallographique de pPorM-Ct a été résolue dans l’équipe par Philippe Léone, également à l’aide de nanobody. Seulement, cette structure est incomplète : pPorMCt est composée de trois domaines D1, D2 et D3, respectivement du côté Nau C-terminal, et la structure résolue ne comporte que les domaines D2 et D3. La structure de la protéine pPorM-T, équivalente à pPorM-Ct, a également été résolue et comporte les trois domaines. 91 Ces données, associées à la structure de pPorM-Nt, permettent d’avoir une idée de l’organisation structurale de pPorM mais restent incomplètes. A B C D @BCDEF)+*+*3?A).JKU`NFN)(.g()IFN)HLJNGEDHGBLJN)IF)M8LE#)FJ)DGBUBNKJG)UK)NDBGF).'(.(*).)A)1OTPSR!VS!VM``TRMOK! NXMbUPMcTSR)! /)A) 4KJZgRSR! VS! 2TMKMSP)! $)A) 8ZOLR! VS! CPJLmg! RJKR! VMbSKRMOKR)! -)A) <OKNLMOKR! VS! VMRLPMTLMOK! VSR! VMRLJKNSR!VSR!QJPLMNTZSR)!5SR!VOKKUSR!VS!Q8OP>_!Q8OP>H,_!Q8OP>H1L!SL!Q8OP>H+L!ROKL!PSRQSNLMdSbSKL! NOZO PUSR!SK! ZST_!POT]S_!dSPL! SL ! KOMP)! Afin de combler ces lacunes sur l’étude structurale cristallographique de pPorM, des analyses en solution ont été réalisées par SAXS. Des données ont été collectées sur la ligne BioSAXS BM29 du synchrotron ESRF sur les protéines pPorM, pPorM-T, pPorM-Nt et pPorM-Ct. Pour toutes ces protéines, des données de bonne qualité ont pu être collectées lors de ces expériences SAXS. Les protéines n’ont pas subit de dommages aux radiations, comme le montrent les courbes de diffusion (<M]TPS!#)#)(EA). 7"! Une droite a pu être superposée sur la région de Guinier (les 100 premiers points enregistrés environ) de ces courbes de diffusion (Figure 3.3.10B), ce qui indique l’absen d’agrégation des échantillons. Les Rg et I(0) estimés sont reportés dans le Tableau 3.3.2. Les poids moléculaires ont été estimés en utilisant le serveur en ligne SAXS MoW2 (Tableau 3.3.2). pPorM Data collection parameters Instrument BM29 (ESRF) pPorM-T pPorM-Ct pPorM-Nt BM29 (ESRF) BM29 (ESRF) Detector Beam geometry Wavelength (nm) -1 q range (nm ) Exposure time (s) Concentration range (g/L) Temperature (K) Pilatus (1M) 4*4 0.09919 0.036-4.912 1 0.73-10 283 Pilatus (1M) 4*4 0.09919 0.036-4.912 1 0.43-4.40 283 Pilatus (1M) 4*4 0.09919 0.036-4.912 1 BM29 (ESRF) Pilatus (1M) 4*4 0.09919 0.036-4.912 1 0.52-16.11 283 Structural parameters -1 I(0) (cm ) (from P(r)) I(0) (cm-1) (from Guinier) 63.97 64.04 +/0.33 39.68 38.10 +/0.12 37.74 37.30 +/0.05 38.4 37.9 +/2.4 126 119 38.8 37.7 +/2.8 126 88 15.03 14.69 +/0.03 30.2 29.5 +/2.3 119 59 34.328 72.259 34.328 72.760 21.946 20.779 PRIMUS GNOM CRYSOL SREFLEX PRIMUS GNOM CRYSOL PRIMUS GNOM CRYSOL DAMMIF Rg (Å) (from P(r)) 56.6 Rg (Å) (from Guinier) 55.3 +/0.05 Dmax (Å) (from P(r)) 190 Dmax (Å) (from crystal structure) Molecular mass (M) (kDa) M theoretical 3 M from SAXS MoW2 55.357 147.201 Software employed Primary data reduction PRIMUS Data processing GNOM Validation of structural models 283 !!! Tableau 3.3.2: Collecte des données SAXS et paramètres structuraux dé rivés. Selon ces estimations, la protéine pPorM-Nt semble être monomérique alors que les protéines pPorM-T et pPorM-Ct semblent plutôt être dimériques. Ces résultats sont en accord avec les structures obtenues par cristallographie. Concernant la protéine pPorM, un état oligomérique de dimère étendu est possible. Les plots de Kratky sans dimensions (Figure 3.3.10C) renseignent sur la flexibilité et la forme globulaire d’une molécule. Les courbes des protéines pPorM, pPorM-T et pPorM-Ct sont similaires à la courbe de Kratky correspondant à une protéine partiellement flexible, avec un pic d’une valeur maximale à qRg=3,5 suivit d’un plateau à une valeur de I*(qRg)2/I(0) autour de 0,5. Pour la protéine pPorM-Nt, la diminution lente du pic sans décrire de plateau par la suite peut être le signe d’un degré de flexibilité plus important que pour les autres protéines. 93 Les fonctions de distribution des distances (Figure 3.3.10D) ont été obtenues en utilisant le programme GNOM de la suite ATSAS. Les estimations des Rg et I(0) sont similaires à celles obtenues par analyses de Guinier (Tableau 3.3.2). La distance Dmax calculée à partir de la P(r) pour la protéine pPorM-T est en accord avec celle mesurable sur la structure cristallographique (valeur approximative ne tenant pas compte de la couche d’hydratation, Tableau 3.3.2). Ce n’est pas le cas en revanche pour les protéines pPorM-Ct et pPorM-Nt. Dans le cas de pPorM-Ct, la différence entre la valeur obtenue en solution avec un échantillon fraichement préparé et celle mesurée avec la structure cristallographique peut s’expliquer par l’absence du domaine D1, probablement clivé avant la formation du cristal. Dans le cas de pPorM-Nt, les 25 premiers résidus non construits sont probablement très flexibles, ce qui pourrait expliquer la valeur importante de la Dmax observée en solution. L’allure générale de ces courbes donne l’information de forme de ces protéines. Alors que celles de pPorM-T et pPorM-Ct sont similaires et semblent correspondre à la courbe d’une protéine modulaire, la courbe de pPorM-Nt a une longue extension sur la fin responsable de la Dmax élevée. Cette allure peut être due à une partie étendue, probablement désordonnée. La courbe correspondant à la protéine pPorM ressemble à celle d’une protéine allongée. La comparaison de ces données avec la courbe théorique de diffusion de la structure cristallographique de pPorM-T, à partir de CRYSOL, révèle un accord important avec une valeur du test de χ2 de 0,97 (Figure 3.3.11A). Ce résultat signifie que la structure obtenue par cristallographie aux rayons X est en accord avec les conformères trouvés en solution et analysés par SAXS. J’ai ensuite cherché à savoir si la structure cristallographique de pPorMT est le conformère correspondant le mieux à la protéine pPorM-T en solution. Une simulation utilisant une analyse par modes normaux (SREFLEX) a généré 10 structures affinées mais aucune n’ayant une meilleure valeur du test de χ2, même si elles restent très bonnes (Figure 3.3.11B et C). Les principales différences consistent en de faibles degrés de flexibilité au niveau de chaque domaine et il n’y a pas de grande variation de l’angle entre les domaines D1 et D2. Comme dit précédemment, le domaine D1 est manquant dans la structure cristallographique de pPorM-Ct, ce qui peut facilement expliquer le désaccord entre ces données et les données SAXS (Figure 3.3.12A). Cependant, la structure cristallographique de pPorM-T a un meilleur accord avec ces données SAXS, bien que la valeur du test de 2 reste mauvaise (Figure 3.3.12A). 94 A! C! B! @BCDEF) +*+*33A).JKU`NFN) (.g() IF) M8LE#a'*).)A) 4KJZgRS! 1-G9.5)! 5J! dJZSTP! VT! LSRL! VS!!2! SRL! VS! E_7')! /)FG) $ ) A) > OVUZMRJL MOK!JdSN!9-3<53?!VS!(E!bOVaZSR!RLPTNLTPJTW!RSZOK!ZSR!VS]PUR!VS!`ZSWMMZMLU!MKLPMKRacTSR)!5SR!NOTPSR!VS! VM``TRMOKR![=^!JMKRM!cTS!ZSR!bOVaZSR!NOPPSRQOKVJKLR![1^!ROKL!MZZTRLPUR)!! Pendant l’affinement de pPorM-Nt, de faibles densités étaient visibles pour la partie N-terminale manquante de la protéine, ne permettant cependant pas de compléter la structure. La structure cristallographique est alors incomplète et une analyse selon CRYSOL n’aurait aucun sens. Pour avoir tout de même une idée de la forme globale de pPorM-Nt, le logiciel DAMMIF a été utilisé depuis le Webservice ATSAS et le meilleur modèle a été 7%! représenté en <M]TPS!#)#)("B. La très bonne valeur du test de &2 permet de considérer cette forme comme forme potentielle du conformère en solution. ! A B * @BCDEF)+*+*36A).JKU`NF)(.g()IF)M8LE#a$G)FG)M8LE#a&G*).)A)4KJZgRSR!1-G9.5!VS!Q8OP>H1L)!5SR!VOKKUSR!94?9!OKL! ULU!NObQJPUSR!JTW!NOTPSR!LXUOPMcTSR!VS!VM``TRMOK!VSR!RLPTNLTPSR!NPMRLJZZO]PJQXMcTSR!VS!Q8OP>H1L!SL!Q8OP>H,)!/)A) >OVUZMRJLMOK!.ET+-+(+3%VFTKS!SKdSZOQQS!QOTP!Q8OP>H+L)!5J!NOTPS!VT!bOVaZS!]UKUPU!SRL!MZZTRLPUS!JMKRM!cTS! ZFSKdSZOQQS_!VJKR!ZJcTSZZS!J!ULU!MKRUPUS!ZJ!RLPTNLTPS!JNLTSZZSbSKL!NOKKTS!VS!Q8OP>H+L)! @BCDEF) +*+*3+A) #LIVUBNKGBLJ) -?<'+'3'%) I7DJF) FJTFULMMF) IF) M8LE#) h) U7KBIF) IF) -.##%@*) "E! bOVaZSR! OKL! ULU! ]UKUPUR! bJMR! SRL! PSQPURSKLU! MNM! TKMcTSbSKL! NSZTM! JgJKL! ZJ! bSMZZSTPS! dJZSTP! VS! LSRL! VS! x")! 5J! NOTPS! VS! VM``TRMOK! LXUOPMcTS! VT! bOVaZS! [dSPL^! SRL! RTQSPQORUS! JTW! VOKKUSR! SWQUPMbSKLJZSR! [POT]S^)! 5FSKdSZOQQS! VT! bOVaZS! SRL! PSQPURSKLUS!e!NoLU!SK!bOVS!RTP JNSR) 7&! Il n’est pas réellement possible de comparer les données expérimentales SAXS de pPorM avec les structures cristallographiques obtenues pour pPorM-T, pPorM-Ct ou pPorM-Nt. L’organisation entre ces différents domaines n’est pas connue et bien que l’état dimérique de pPorM soit très probable, les domaines entremêlés de la partie C-terminale (pPorM-T) ne permettent pas d’appliquer une symétrie P2 lors des analyses. La seule analyse qui puisse aider à la compréhension de cette organisation est la génération d’une enveloppe SAXS par modélisation ab-initio à l’aide de DAMMIF. Les valeurs du test de χ2 des 20 modèles générés ont été comparées et le modèle ayant une valeur χ2=1,000 est illustré en Figure 3.3.13. L’enveloppe de ce modèle a une forme allongée présentant deux angles aux extrémités. Bien que les détails diffèrent selon les modèles, cette allure générale est conservée. 3.3.3 Article 2 (manuscrit en préparation) 97 X-ray Structure of the periplasmic domain of PorM, a component of the T9SS in Porphyromonas gingivalis Jennifer Roche1,2,&, Philippe Leone1,2,&, Maxence S. Vincent3, Yoan Duhoo1,2, Quang Hieu Tran1,2, Christine Kellenberger1,2, Christian Cambillau1,2, Eric Cascales3 and Alain Roussel1,2,*. 1 Centre National de la Recherche Scientifique, Architecture et Fonction des Macromolécules Biologiques, UMR 7257, Marseille, France 2 Aix-Marseille Université, Architecture et Fonction des Macromolécules Biologiques, UMR 7257, Marseille, France. 3 Laboratoire d'Ingénierie des Systèmes Macromoléculaires (LISM), UMR 7255 CNRS et AixMarseille Université, Marseille, France & * These authors have contributed equally to the work To whom correspondence should be addressed. Email: [email protected] Running title: Crystal structure of pPorM Introduction Bacteria have evolved specialized macromolecular machines named secretion systems that secrete a large range of substrates, including small molecules, DNA and proteins. In diderm bacteria, secretion may be either a single-step process in which substrates are translocated directly from the cytoplasm to the external milieu or a two-step process in which the substrates first cross the inner membrane (IM) into the periplasm using the Sec, Tat or holins pathway, then cross the outer membrane (OM) through a specialized translocon (1). After secretion the substrates may stay attached to the surface of the OM, be released into the extracellular milieu or be injected into a target cell (1). The recently discovered type 9 secretion system (T9SS) belongs to the two-step process systems group. The T9SS, which is exclusively present in the Bacteroidetes phylum (2-4), has been studied mainly in Flavobacterium johnsoniae and Porphyromonas gingivalis. In F. johnsoniae it contributes to the gliding motility by secreting SprB, a cell surface adhesin that is required for movement on agar (5). SprB localizes to the cell surface, where it forms long slender filaments (6). Unlike F. johnsoniae, P. gingivalis is a non-motile bacterium. It is a human oral pathogen that is a major causative agent of periodontitis (7). In P. gingivalis the T9SS contributes to the production of potent proteolytic enzymes called gingipains (8-10) that are essential virulence factors responsible for corrupting host innate defense mechanisms (7,11). Gingipains secreted in large amounts and are mainly attached to the surface of the OM, but are also partially released in a soluble form into the extracellular milieu (8,12). Presently, 18 genes have been proven essential for proper T9SS function in P. gingivalis by deletion mutagenesis studies (13). Among them a group of five genes, PorP-PorK-PorLPorM-PorN, form an operon structure and are co-transcribed (14). In addition it has been shown that PorK, PorL, PorM and PorN, assemble a > 1.4 MDa complex (2). PorK is a lipoprotein anchored in the outer membrane and interacts strongly with the periplasmic protein PorN. PorK and PorN form large disks of around 50 nm in diameter in the OM (15). PorL and PorM are inner membrane proteins which interact with each other via their transmembrane segments. In addition to its transmembrane segment, PorM possesses a long periplasmic domain of nearly 500 residues which interacts with all other operon partners, and which is thought to link the inner and outer membrane subcomplexes (14). Therefore, we can speculate that PorM is a central scaffolding component of the T9SS core complex. Now, to the best of our knowledge, there is no atomic structure of any component of the PorKLMN complex. In the present study, we report the three-dimensional structure of PorM based on the X-ray crystallographic structures of two fragments of PorM representing the periplasmic part of the protein. The structure analysis revealed that PorM folds into four domains: one monomeric four-helix bundle domain in the N-terminal part, while the Cterminal part is composed of three domains, whose two are domain-swapped immunoglobulin-like domains. The crystal structures of the PorM constructs allowed modelling of the full-length periplasmic domain, highlighting an extended and bended conformation that is confirmed by SAXS analysis. Results Structure determination of the periplasmic domain of PorM The polypeptide chain of PorM contains a short intracellular segment (residues 1–12), a predicted transmembrane domain (residues 13–35) and a larger periplasmic part (residues 36–516; pPorM). In a previous study, limited proteolysis made it possible to identify and produce a C-terminal domain of PorM (residues 225–516; pPorM-T (16). Native crystals of pPorM-T diffracted up to 2.85Å, and phases were obtained with a MAD data set from SelenoMethionine derivative crystals (16). The pPorM-T domain is composed of three subdomains encompassing residues 225-314 (D1), 318-398 (D2) and 400-516 (D3), respectively. However, complete tracing of the domain backbone was not possible as the electron density was very poor for the D3 subdomain. In order to improve the resolution, we cloned and produced a construct corresponding to the region of D1+D2+D3 (residues 225-516; pPorMCter). Since this new construct did not yield crystals, we generated llama antibodies against pPorM aiming at co-crystallization with pPorM-Cter. Four nanobodies (nb01, nb02, nb19 and nb130) were selected and produced and their structures were solved by molecular replacement (17). Two of them, namely nb19 and nb130, were shown to bind to pPorM-Cter and were used as co-crystallization chaperones. Diffracting crystals were obtained for nb130 in complex with pPorM-Cter and the structure of this complex was solved by molecular replacement using the nanobody structure and the partial models of D2 and D3. The complete chain of D2 and D3 could be traced and the structure was refined up to 2.1 Å resolution. The structure of the complex revealed that nb130 binds to the D3 subdomain and stabilizes it, in particular through the protruding CDR3 and a interaction of Tyr99. Contemporaneously, we produced a construct corresponding to the N-terminal part of the PorM periplasmic domain (residue 44-217, pPorM-Nter). Diffracting crystals of pPorM-Nter were obtained and several data sets (native and Seleno-Methionine derivative) were collected up to 1.9 Å resolution. Unfortunately, these datasets were twinned and therefore not useable for further crystallographic work. This led us to use again a nanobody as a way to obtain different crystals, hopefully non-twinned. This strategy revealed to be a success as diffracting crystals of pPorM-Nter with nanobody nb01 were obtained. The structure of the complex was solved by molecular replacement using only the structure of nb01 as starting model and the structure of pPorM-Nter could be built in the residual electron density map. The structures of pPorM-T, pPorM-Cter/nb130 and pPorM-Nter/nb01 are described in more details in the following sections. Crystal structure of pPorM-T pPorM-T crystallized in space group P43212 with two molecules in the asymmetric unit forming a tight dimer with 4875Å2 buried surface area (corresponding to ~25% of the total surface of each monomer). This dimerization is indeed consistent with the molecular weight of the protein in solution, as measured by SEC-MALLS (16). The structure of pPorM-T is composed of three domains named D1 (residues 225-314), D2 (residues 318-398) and Dom3 (residues 400-516). A very prominent feature of the structure is the presence of domain swapped stretches within both D1 and D2 that lock the dimer. To confirm that this two-domain-swapping is not an artefact due to over-expression of a truncated construct, rational design of disulfide bonds was carried out using the Disulfide Design algorithm (18).
11,643
9c5e3af172fd33a3df96c40a2eade6b6_9
French-Science-Pile
Open Science
Various open science
2,013
Investissement direct étranger
None
French
Spoken
7,423
17,390
Grâce aux grands programmes de développement de plusieurs pays de l’OCDE, la part des énergies nouvelles et renouvelables (énergie solaire, éolienne et géothermique et énergie obtenue à partir des biocombustibles et des déchets) s’est accrue. Cependant, ces formes d’énergie restent limitées : elles ne représentaient en 2010 que 3.7 % du total de la production mondiale d’électricité. Gaz naturel 22.2% Pétrole 4.6% 1 2 http://dx.doi.org/10.1787/888932713918 Sources • AIE (2012), Energy Balances of non-OECD Countries, Éditions OCDE. • AIE (2012), Energy Balances of OECD Countries, Éditions OCDE. Pour en savoir plus Publications analytiques • AIE (2013), Electricity and a Climate-Constrained World: Data and Analyses, Éditions OCDE. • AIE (2012), World Energy Outlook, Éditions OCDE. • Cooke, D. (2011), "Empowering Customer Choice in Electricity Markets", IEA Energy Papers, No. 2011/13, Éditions OCDE. • AIE (2011), IEA Scoreboard 2011, Implementing Energy Efficiency Policy: Progress and challenges in IEA member countries, Éditions OCDE. Bases de données en ligne • IEA Electricity Information Statistics. • IEA World Energy Statistics and Balances. Sites Internet • Agence internationale de l’énergie (AIE), www.iea.org. 112 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE PRODUCTION D’ÉLECTRICITÉ Production d’électricité Terawatts heure (TWh) 1971 1990 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 Allemagne 327.2 Australie 53.0 Autriche 28.2 Belgique 33.2 Canada 221.8 Chili 8.5 Corée 10.5 Danemark 18.6 Espagne 61.6 Estonie .. États-Unis 1 703.4 Finlande 21.7 France 155.8 Grèce 11.6 Hongrie 15.0 Irlande 6.3 Islande 1.6 Israël 7.6 Italie 123.9 Japon 382.9 Luxembourg 1.3 Mexique 31.0 Norvège 63.5 Nouvelle-Zélande 15.5 Pays-Bas 44.9 Pologne 69.5 Portugal 7.9 République slovaque 10.9 République tchèque 36.4 Royaume-Uni 255.8 Slovénie .. Suède 66.5 Suisse 31.2 Turquie 9.8 UE-27 .. OCDE 3 836.9 Afrique du Sud 54.6 Brésil 51.6 Chine 138.4 Fédération de Russie .. 10 752.8 .. .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888932713880 Production mondiale d’électricité par type d’énergie Térawattheures (TWh) Other et tourbe Charbon Hydro Pétrole Nuclear Gaz naturel Natural gas Nucléaire OilHydro Coal and Peat Autres 25 000 20 000 15 000 10 000 5 000 0 1 2 http://dx.doi.org/10.1787/888932713899 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 113 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE ÉNERGIE NUCLÉAIRE En 2010, près de 22 % de l’électricité fournie dans les pays de l’OCDE (et 14 % à l’échelle mondiale) était d’origine nucléaire. Toutefois, le recours à l’énergie nucléaire varie grandement d’un pays à l’autre. Au total, 18 des 34 pays membres de l’OCDE l’exploitent, dont huit pour produire un tiers, voire plus, de leur électricité. Pris ensemble, les pays de l’OCDE représentent aux alentours de 83 % de l’énergie nucléaire mondiale. Douze économies non membres de l’OCDE se partagent le reste de la production. Définition Sont indiquées ici la production électronucléaire en térawattheures (TWh) et la part de la production totale d’électricité qui revient au nucléaire. Le tableau fournit aussi le nombre de centrales nucléaires en service ou en construction à la date du 1er juin 2012. En bref Alors que l’énergie nucléaire avait connu une forte croissance dans les années 70 et 80, ces vingt dernières années ont vu la mise en service d’un tout petit nombre de nouvelles centrales seulement. Or, on constate depuis quelques années un regain d’intérêt pour les potentialités offertes par l’énergie nucléaire s’agissant de réduire les gaz à effet de serre, de diversifier les sources d’énergie et de renforcer la sécurité d’approvisionnement. Toutefois, l’accident survenu à la centrale de Fukushima Daiichi (Japon), suite au tremblement de terre et au tsunami de mars 2011, ont conduit plusieurs pays à revoir leur programme nucléaire. La puissance nucléaire installée pourrait donc croître plus lentement que prévu, tout au moins ces prochaines années. A l’avenir, cette croissance s’observera surtout dans les pays non membres de l’OCDE. La Chine, notamment, a entrepris de développer son parc nucléaire en mettant en chantier dix nouvelles centrales en 2010. L’Inde et la Fédération de Russie en comptent elles aussi plusieurs en construction. Parmi les pays membres de l’OCDE, la Corée, les États-Unis, la Finlande, la France, le Japon et la République slovaque ont entrepris de bâtir une ou plusieurs centrales, tandis que la Pologne et la Turquie prévoient activement de se doter de leurs premières unités. Il ressort de l’édition 2012 des Energy Technology Perspectives de l’Agence internationale de l’énergie que, d’après le scénario limitant à deux degrés l’élévation de la température planétaire, la puissance nucléaire installée pourrait passer de 370 GW à l’heure actuelle à 1 100 GW en 2050, ce qui porterait à près de 20 % la part du nucléaire dans la production mondiale d’électricité. Cela représenterait une contribution importante du secteur électrique à la réduction des émissions de gaz à effet de serre. Cependant, l’incertitude subsiste en ce qui concerne les possibilités de construire et d’exploiter avec succès la prochaine génération de centrales nucléaires, l’adhésion publique et politique au nucléaire, au lendemain de l’accident de Fukushima Daiichi, et le niveau de développement des autres sources d’énergie sobres en carbone. Comparabilité Certaines statistiques sur la production sont provisoires et donc susceptibles d’être modifiées. Les données sur le Japon se rapportent à l’exercice budgétaire. Evolution de la production d’électricité nucléaire Térawattheures (TWh), 2010 803.0 868.2 425 400 375 350 325 300 275 250 225 200 175 150 125 100 75 50 25 0 1 2 http://dx.doi.org/10.1787/888932713975 Sources • OCDE (2012), Données sur l’énergie nucléaire, Éditions OCDE. • Les données des pays non-membres proviennent de l’Agence internationale de l’énergie atomique (AIEA), www.iaea.org. Pour en savoir plus Publications analytiques • AIE (2012), Energy Technology Perspectives, Éditions OCDE. • AEN (2012), The Role of Nuclear Energy in a Low Carbon Future, Développement de l’énergie nucléaire, Éditions OCDE. • AEN et Agence internationale de l’énergie atomique (AIEA) (2012), Uranium 2009: Ressources, production et demande, Éditions OCDE ("Uranium 2011" disponible en anglais). Sites Internet • Agence pour l’énergie nucléaire, www.oecd-nea.org. 114 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE ÉNERGIE NUCLÉAIRE Production d’électricité nucléaire et centrales nucléaires 2010 Terawatts heure net Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-27 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Monde 133.0 45.7 85.3 142.0 59.2 803.0 21.9 407.9 14.8 279.3 5.6 4.0 13.5 26.4 56.4 5.4 59.2 25.2 868.2 2 183.7 12.9 13.9 71.0 159.4 20.5 2 630.0 Nombre au 1 juin 2012 En pourcentage de la production totale d'électricité Centrales connectées au réseau Centrales en construction 24.5 50.0 15.0 32.2 20.1 20.3 28.4 74.1 42.8 29.2 2.6 3.2 52.9 33.2 15.7 37.5 38.2 38.0 27.4 21.8 5.2 3.1 1.8 17.1 2.9 13.5 9 7 17 23 8 104 4 58 4 50 2 1 4 6 16 1 10 5 132 329 2 2 16 33 20 435 3 1 1 1 2 2 4 11 1 26 11 7 62 1 2 http://dx.doi.org/10.1787/888932713937 Production d’électricité nucléaire En pourcentage de la production totale d’électricité, 2010 80 70 60 50 40 30 20 10 0 1 2 http://dx.doi.org/10.1787/888932713956 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 115 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE CONTRIBUTION DES ÉNERGIES RENOUVELABLES Les États sont de plus en plus nombreux à accorder une place de choix à la promotion du développement durable et à la lutte contre le changement climatique dans leurs politiques énergétiques. Avec la croissance de la consommation d’énergie, les émissions de gaz à effet de serre ont grimpé en flèche et leur concentration dans l’atmosphère s’est accrue. Pour réduire ces émissions, une solution consiste à remplacer les combustibles fossiles par des énergies renouvelables. Comparabilité Les données sur les biocombustibles et les déchets reposent souvent sur des enquêtes de portée limitée ou sur d’autres informations incomplètes. Elles ne donnent donc qu’une impression approximative des tendances et ne sont pas véritablement comparables d’un pays à l’autre. Parfois, des catégories entières de combustibles végétaux sont omises par manque d’information. Définition Le tableau indique la part des énergies renouvelables dans les approvisionnements totaux en énergie primaire (ATEP) des pays de l’OCDE. Les énergies renouvelables comprennent l’équivalent en énergie primaire de l’électricité produite par l’hydraulique (hors stations de pompage), la géothermie, le solaire, l’éolien, l’énergie marémotrice et l’énergie de la houle. Elles recouvrent aussi l’énergie provenant des biocombustibles solides, de la bio-essence, des biodiesels et autres biocarburants liquides, des biogaz et de la fraction renouvelable des déchets urbains. Les biocombustibles sont par définition les combustibles provenant directement ou indirectement de la biomasse (matière obtenue à partir d’organismes vivants ou morts depuis peu). Ils incluent le bois, les déchets végétaux (dont les déchets de bois et les cultures énergétiques), l’éthanol, les matières/déchets d’origine animale et les lessives sulfitiques. Les déchets urbains comprennent les déchets des secteurs résidentiel, tertiaire et des services publics collectés par les autorités municipales pour élimination dans une installation centralisée et pour la production de chaleur et/ou d’électricité. Contribution des énergies renouvelables à l’approvisionnement en énergie En pourcentage de l’approvisionnement total en énergie primaire, 2011 90 80 70 60 50 40 30 20 10 0 1 2 http://dx.doi.org/10.1787/888932714032 En bref Dans les pays de l’OCDE, les approvisionnements totaux en énergies renouvelables ont augmenté au rythme de 2.5 % par an entre 1971 et 2011, contre 1.1 % dans le cas des approvisionnements totaux en énergie primaire. La croissance annuelle de l’hydraulique (1.2 %) est inférieure à celle d’autres énergies renouvelables, telles que la géothermie (5.3 %) ou encore les biocombustibles et les déchets (2.7 %). Comme leur niveau était très bas en 1971, le solaire et l’éolien sont les énergies renouvelables qui ont enregistré la plus forte croissance dans les pays de l’OCDE, surtout dans ceux où les pouvoirs publics ont mené une politique en faveur de leur développement. Pour l’ensemble de la zone OCDE, la contribution des énergies renouvelables aux approvisionnements énergétiques est passée de 4.8 % en 1971 à 8.2 % en 2011. Toutefois, les disparités entre pays sont considérables. En haut de la fourchette, la part des énergies renouvelables atteignait 84 % en Islande et 40 % en Nouvelle-Zélande, de même qu’en Norvège. À l’autre extrême, elle ne dépassait pas 3 % de l’offre en Corée, au Japon et au Luxembourg. En général, la part des énergies renouvelables dans les approvisionnements énergétiques des pays non membres de l’OCDE est supérieure à celle des pays de l’OCDE. En 2010, les énergies renouvelables représentaient 44 % de l’approvisionnement au Brésil, 35 % en Indonésie, 26 % en Inde, 12 % en Chine, 11 % en Afrique du Sud et 3 % en Fédération de Russie. Sources • AIE (2012), Energy Balances of non-OECD Countries, Éditions OCDE. • AIE (2012), Energy Balances of OECD Countries, Éditions OCDE. Pour en savoir plus Publications analytiques • AIE (2012), Medium-Term Renewable Energy Market Report 2012, Market Trends and Projections to 2017, Éditions OCDE. • AIE (2012), Solar Heating and Cooling, IEA Technology Roadmaps, AIE, Paris. • AIE (2011), Deploying Renewables: Best and Future Policy Practice, Éditions OCDE. • AIE (2011), Harnessing Variable Renewables, A Guide to the Balancing Challenge, Éditions OCDE. Publications statistiques • OCDE (2012), Renewables Information, Éditions OCDE. Bases de données en ligne • IEA World Energy Statistics and Balances. Sites Internet • Agence internationale de l’énergie (AIE), www.iea.org. 116 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE CONTRIBUTION DES ÉNERGIES RENOUVELABLES Contribution des énergies renouvelables à l’approvisionnement en énergie En pourcentage de l'approvisionnement total en l'énergie primaire Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-27 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Monde 1971 1990 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 1.2 8.8 11.0 0.0 15.3 20.8 0.6 1.8 6.5 .. 3.7 27.3 8.6 7.8 2.9 0.6 46.7 0.0 5.6 2.7 0.0 16.8 40.9 32.0 0.0 1.4 19.6 2.3 0.2 0.1 .. 20.4 15.5 31.0 .. 4.8 10.4 56.4 40.2 .. 8.2 .. .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888932713994 Approvisionnement en énergies renouvelables dans les pays de l’OCDE En millions de tonnes d’équivalent pétrole (Mtep) Hydroélectricité Biocarburants liquides Énergie solaire, marémotrice, éolien, etc. Énergie géothermique Biogaz Biocarburants solides Déchets urbains (renouv.) 450 400 350 300 250 200 150 100 50 0 1 2 http://dx.doi.org/10.1787/888932714013 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 117 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE PRODUCTION DE PÉTROLE Le Moyen-Orient et l’Afrique du Nord sont des régions exceptionnellement riches en ressources énergétiques : leur sous-sol renfermait environ 65 % des réserves mondiales prouvées de pétrole fin 2010. En regard de ces réserves, la production pétrolière y est aujourd’hui relativement faible, et il sera essentiel d’en intensifier l’exploitation afin de répondre aux besoins énergétiques mondiaux des prochaines décennies. Les hydrocarbures non conventionnels (comme les schistes et sables bitumineux, le charbon liquéfié, les hydrocarbures issus de la biomasse et les hydrocarbures liquides obtenus par synthèse à partir du gaz naturel) sont également appelés à jouer un rôle croissant pour satisfaire la demande mondiale. Comparabilité En règle générale, les données relatives à la production de pétrole sont de grande qualité. Dans certains cas, les informations proviennent de sources secondaires ou sont des estimations de l’Agence internationale de l’énergie. Part de la production des raffineries par produit En pourcentage de la production des raffineries 1971 GPL/Éthane/ Autres Naphte 5.4% produits 9.4% Essence pour automobile 21.4% Mazout Carburants 33.9% pour avion 4.4% Définition La production de pétrole brut correspond aux quantités de pétrole extraites du sous-sol, après élimination des matières inertes ou des impuretés qu’il contenait. Cette production comprend le pétrole brut, les liquides de gaz naturel (LGN) et les additifs. Le pétrole brut est une huile minérale constituée d’un mélange d’hydrocarbures d’origine naturelle. Sa couleur va du jaune au noir, sa densité et sa viscosité sont variables. Les LGN sont des hydrocarbures liquides ou liquéfiés obtenus pendant le traitement, la purification et la stabilisation du gaz naturel. Les additifs (notamment, le MTBE ou le plomb tétraéthyle) sont des substances autres que des hydrocarbures qui sont ajoutées ou mélangées à un produit afin d’en modifier les propriétés, par exemple d’en améliorer les propriétés de combustion. Distillats moyens 25.5% 2010 Autres produits 14.2% On entend par production des raffineries la production de produits pétroliers secondaires des raffineries de pétrole. Essence pour automobile 23.0% Mazout 13.7% Distillats moyens 34.2% Carburants pour avion 6.2% 1 2 http://dx.doi.org/10.1787/888932714089 En bref La production mondiale de pétrole brut a progressé de 61 % durant les 40 années écoulées entre 1971 et 2011. En 2011, la production a atteint 4 011 millions de tonnes, soit environ 88 millions de barils par jour. La croissance n’a pas été continue au cours de la période considérée, la production ayant chuté à la suite des deux chocs pétroliers survenus au début et à la fin des années 70. En 2011, le Moyen-Orient représentait 32 % du total de la production mondiale de pétrole. Cependant, la production de la région et sa part dans le total mondial ont sensiblement varié au cours de la période considérée, passant de 38 % en 1974 à 19 % en 1985. En revanche, la zone de l’OCDE, qui, du fait de l’augmentation de sa productiondans les années 80 et 90, avait rattrapé le Moyen-Orient, a vu sa part tomber à 21 % de la production mondiale de pétrole en 2011. La production de produits pétroliers secondaires raffinés a considérablement évolué entre 1971 et 2010. Dans la gamme de ces produits, la part du fioul est passée de 34 % en 1971 à 14 % en 2010, tandis que celle des distillats moyens a augmenté, passant de 25 % à 34 % au cours de la même période. GPL/Éthane/ Naphte 8.7% Sources • AIE (2012), Energy Balances of non-OECD Countries, Éditions OCDE. • AIE (2012), Energy Balances of OECD Countries, Éditions OCDE. • AIE (2012), Oil Information, Éditions OCDE. Pour en savoir plus Publications analytiques • AIE (2012), Energy Policies of IEA Countries, Éditions OCDE. • AIE (2012), Medium-Term Oil Market Report, AIE, Paris. Bases de données en ligne • IEA World Energy Statistics and Balances. Sites Internet • Agence internationale de l’énergie (AIE), www.iea.org. 118 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE PRODUCTION DE PÉTROLE Production de pétrole brut Millions de tonnes 1971 1990 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 Allemagne 7.6 Australie 14.3 Autriche 2.6 Belgique Canada 70.6 Chili 1.7 Corée Danemark Espagne 0.1 Estonie États-Unis 527.7 Finlande France 2.5 Grèce Hongrie 2.0 Irlande Islande Israël 5.7 Italie 1.3 Japon 0.8 Luxembourg Mexique 25.4 Norvège 0.3 Nouvelle-Zélande Pays-Bas 1.7 Pologne 0.4 Portugal République slovaque 0.2 République tchèque Royaume-Uni 0.2 Slovénie Suède Suisse Turquie 3.5 UE-27 .. OCDE 668.6 Afrique du Sud Brésil 8.5 Chine 39.4 Fédération de Russie .. Inde 7.3 Indonésie 44.1 Monde 2 488.7 5.3 27.5 1.2 91.6 1.1 6.0 1.1 413.3 3.5 0.8 2.3 4.7 0.5 151.1 82.1 1.9 4.0 0.2 0.1 0.2 91.6 3.7 129.0 893.8 32.7 138.3 523.7 34.6 73.2 3 169.3 4.3 33.1 1.0 .. 126.6 0.4 0.6 16.9 0.3 .. 349.9 0.1 1.6 0.2 1.5 .. .. 0.0 4.2 0.6 .. 175.5 162.6 1.8 2.3 0.8 .. 0.1 0.4 116.8 .. .. .. 2.5 157.3 1 004.1 0.8 67.1 164.1 345.8 36.2 66.6 .. 4.6 31.3 1.0 132.9 0.4 0.5 18.1 0.3 348.1 0.1 1.5 0.2 1.6 5.8 0.6 178.3 157.8 1.6 3.1 0.8 0.1 0.4 116.1 2.4 161.5 1 007.6 1.0 75.4 167.1 377.2 37.4 61.9 3 592.1 4.8 29.1 1.0 140.4 0.4 0.5 18.1 0.3 338.4 0.1 1.6 0.1 1.6 5.9 0.6 189.3 153.7 1.3 3.1 0.8 0.5 106.2 2.4 151.7 1 000.3 0.7 77.9 169.7 418.6 37.7 56.7 3 736.4 4.9 26.2 1.1 145.4 0.4 0.4 19.3 0.3 325.9 0.1 1.6 0.1 1.6 5.7 0.7 191.4 144.0 1.1 2.9 0.9 0.6 95.5 2.3 140.7 972.4 1.7 77.1 175.9 456.3 38.3 53.5 3 909.9 5.2 24.1 1.0 143.5 0.3 0.5 18.5 0.2 310.0 0.1 1.4 0.1 1.4 6.4 0.7 187.6 133.0 1.1 2.3 0.9 0.6 84.7 2.3 129.0 925.8 0.9 85.1 181.4 466.4 36.3 52.4 3 965.0 5.2 22.0 1.0 151.3 0.3 0.6 16.8 0.1 304.4 0.2 1.2 0.1 1.3 6.3 0.7 183.2 123.8 1.0 2.0 0.8 0.4 76.6 2.2 118.1 901.5 0.8 90.3 184.9 475.8 38.1 49.3 3 982.5 5.2 24.5 1.0 158.0 0.5 0.6 15.2 0.1 304.0 1.4 0.1 1.2 6.6 0.7 172.5 119.5 2.0 2.9 0.7 0.4 76.6 2.1 116.6 896.0 0.2 92.2 186.4 487.7 37.9 46.7 3 958.1 4.9 22.6 1.0 153.8 0.5 0.5 14.0 0.1 299.4 1.5 0.1 1.2 6.0 0.7 156.9 114.6 2.8 2.5 0.8 0.3 71.7 2.2 109.1 858.3 0.1 95.5 190.6 486.2 37.5 48.3 3 994.0 4.5 23.7 1.0 152.6 0.6 0.7 12.9 0.1 321.7 0.1 1.2 0.1 1.2 5.2 0.7 146.0 108.3 2.7 2.2 0.7 0.3 68.2 2.4 102.3 857.1 0.1 102.1 189.6 491.2 37.7 47.3 3 901.2 3.8 22.5 1.0 161.2 0.6 0.7 12.2 0.1 332.4 0.1 1.2 0.1 1.1 5.9 0.7 144.7 99.6 2.6 1.8 0.7 0.3 63.0 2.5 95.6 858.8 0.1 107.5 203.2 504.1 41.9 47.5 3 974.0 3.9 19.4 1.0 168.9 0.5 0.7 11.2 0.1 345.8 0.1 1.2 0.1 0.9 5.8 0.6 143.8 93.3 2.2 1.8 0.7 0.3 52.0 2.4 83.5 856.8 0.1 110.3 203.2 510.2 43.2 45.7 4 010.9 1 2 http://dx.doi.org/10.1787/888932714051 Production de pétrole brut par région Millions de tonnes OCDE Moyen-Orient Europe et Eurasie hors OCDE Autres pays d'Asie Amériques hors OCDE Afrique Chine 4 500 4 000 3 500 3 000 2 500 2 000 1 500 1 000 500 0 1 2 http://dx.doi.org/10.1787/888932714070 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 119 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE PRIX DU PÉTROLE Outre les fluctuations habituelles de l’offre et de la demande, un certain nombre de facteurs, notamment d’ordre géopolitique, influent sur le prix du pétrole brut, dont on tire les produits pétroliers (par exemple l’essence). En bref L’embargo pétrolier imposé par les pays arabes en 1973 a eu un impact considérable sur les cours : le prix de l’Arabian Light s’est en effet envolé, passant de 1.84 USD/baril en 1972 à 10.98 USD/baril en 1974. Après 1973, un premier pic a été atteint à la suite de la révolution iranienne en 1981, année où les prix ont approché les 40 USD. Après cette crise, les prix ont amorcé une baisse progressive, puis accusé une chute brutale en 1986, lorsque l’Arabie Saoudite a fortement accru sa production pétrolière. La première crise du Golfe, survenue en 1990, a déclenché une nouvelle flambée des prix. En 1997, les cours du pétrole brut ont commencé à diminuer sous l’effet de la crise financière asiatique. Les prix sont repartis à la hausse en 1999, en réaction aux réductions des quotas de production visées par l’OPEP et aux tensions sur les stocks. Malgré le fléchissement intervenu en 2001 et 2002, la perspective de la guerre en Irak a poussé sensiblement les prix à la hausse, qui ont dépassé les 30 USD au premier trimestre de 2003 et sont restés élevés dans les derniers mois de l’année 2003 ainsi qu’en 2004. Les prix du pétrole brut ont augmenté très fortement fin août 2005, après les ravages provoqués par l’ouragan Katrina sur la côte Est du golfe du Mexique aux États-Unis. Ils ont poursuivi leur escalade en 2006, dépassant en moyenne de 24 % les cours de l’année précédente, car la demande de pétrole des économies émergentes, en particulier de la Chine, mettait à rude épreuve l’équilibre de l’offre et de la demande. En 2007, la hausse des cours a continué : le prix du Dubaï a atteint 88.82 USD/baril au début du mois de novembre et celui du WTI s’est envolé à 96.50 USD/baril. Au début de l’année 2008, les prix ont franchi le seuil symbolique des 100 USD/baril puis atteint un nouveau sommet historique à un peu moins de 150 USD/baril au mois de juillet. Début 2009, les prix sont retombés à 40 USD/ baril lorsque, sous l’effet du renchérissement et de l’amorce de la crise financière mondiale, la demande s’est effondrée. Plus tard dans l’année, les prix allaient de 70 à 80 USD/baril. Les prix du pétrole brut ont affiché une hausse continue tout au long de 2010 et 2011, sous l’effet du redémarrage de la demande au sortir de la récession, du renforcement des stocks et du faible niveau de la capacité inutilisée. En 2012, ils ont continué de croître jusqu’au mois de mars pour atteindre 122.40 USD/baril en moyenne, puis ont commencé à baisser pour passer sous la barre de 100 USD/ baril en juin. Définition Les prix d’importation du pétrole brut sont tirés du Crude Oil Import Register. Les données sont recueillies en fonction du type de brut et les prix moyens s’obtiennent en divisant la valeur par le volume enregistré par les administrations des douanes pour chaque position tarifaire. Les valeurs sont consignées à la date de l’importation et tiennent compte du coût, de l’assurance et du fret (CAF), mais non des droits d’importation. Le prix nominal au comptant du pétrole brut indiqué pour les années 2003 à 2011 est celui du Dubaï, tandis que pour les années 1970 à 2002, il s’agit de celui de l’Arabian Light. Ces prix nominaux au comptant sont exprimés en dollars US par baril de pétrole. Le prix réel a été calculé à l’aide du déflateur du PIB aux prix du marché et en prenant 1970 comme nouvelle année de référence (1970 = 100). Comparabilité Les prix moyens d’importation du pétrole brut sont fonction de la qualité du brut importé. Les pétroles bruts de grande qualité, tels que ceux extraits dans le secteur des Forties au RoyaumeUni ou le gisement d’Oseberg en Norvège ainsi que le brut léger vénézuélien, se vendront plus cher que les bruts de qualité inférieure, par exemple le brut lourd canadien ou le pétrole extra-lourd du Venezuela. Le prix moyen mensuel dépend du panachage de pétroles bruts importés chaque mois dans un pays donné. Sources • AIE (2012), Energy Prices and Taxes, Éditions OCDE. Pour en savoir plus Publications analytiques • AIE (2012), Energy Policies of IEA Countries, Éditions OCDE. • AIE (2011), Medium-Term Oil and Gas Markets 2011, AIE, Paris. • AIE (2011), Oil Market Report, AIE, Paris. • AIE (2012), World Energy Outlook, Éditions OCDE. Bases de données en ligne • Energy Prices and Taxes - IEA online database. Sites Internet • Agence internationale de l’énergie (AIE), www.iea.org. 120 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • APPROVISIONNEMENT EN ÉNERGIE PRIX DU PÉTROLE Prix du pétrole brut à l’importation dollars des EU par baril, valeur unitaire moyenne, c.a.f. Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-27 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie 1976 1990 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 13.27 .. 12.85 12.64 .. .. .. 12.98 12.54 .. 13.48 .. .. 12.13 .. .. .. .. 12.41 12.59 .. .. .. .. 13.06 .. 12.14 .. .. 12.57 .. 13.22 13.87 .. .. .. .. .. .. .. .. .. 23.17 24.21 24.58 21.11 24.15 .. .. 23.18 21.88 .. 21.07 .. .. 22.42 .. 25.55 .. .. 23.23 22.64 .. .. 18.46 21.97 21.83 .. 22.75 .. .. 22.92 .. 23.02 24.23 23.11 .. .. .. .. .. .. .. .. 24.15 26.61 25.32 24.20 24.87 .. 24.87 24.82 23.32 .. 22.07 23.49 24.13 23.22 .. 25.31 .. .. 23.87 25.01 .. .. 23.43 26.14 23.48 .. 24.02 .. 23.74 24.45 .. 24.03 25.04 22.98 .. .. .. .. .. .. .. .. 24.40 25.80 24.64 24.35 24.97 .. 24.12 24.88 23.95 .. 23.52 24.51 24.63 24.08 .. 25.52 .. .. 24.34 24.96 .. .. 24.46 25.89 23.99 .. 24.27 .. 23.37 24.58 .. 23.86 25.34 23.57 .. .. .. .. .. .. .. .. 28.44 31.24 29.59 27.72 29.53 .. 28.80 29.68 28.13 .. 27.66 27.72 28.87 27.17 .. 29.66 .. .. 28.58 29.26 .. .. 30.41 31.00 27.67 .. 28.72 .. 28.13 29.13 .. 28.60 30.26 27.05 .. .. .. .. .. .. .. .. 36.65 40.93 38.21 35.35 38.13 .. 36.15 38.78 36.03 .. 35.86 36.09 37.61 34.53 .. 39.24 .. .. 36.60 36.59 .. .. 39.20 41.71 35.02 .. 37.89 .. 34.82 37.75 .. 36.47 38.73 34.90 .. .. .. .. .. .. .. .. 52.30 56.71 53.15 50.06 52.37 .. 50.19 54.40 50.54 .. 48.82 51.12 52.74 50.33 .. 55.24 .. .. 51.33 51.57 .. .. 53.08 56.07 50.00 .. 51.94 .. 51.28 53.79 .. 51.78 55.81 50.65 .. .. .. .. .. .. .. .. 63.29 66.71 64.44 61.06 64.33 .. 62.82 66.92 60.99 .. 59.15 63.37 63.69 60.97 .. 66.38 .. .. 62.50 64.03 .. .. 58.83 67.36 61.47 .. 62.77 .. 62.05 65.00 .. 62.50 66.76 61.48 .. .. .. .. .. .. .. .. 71.60 77.13 71.86 70.35 70.04 .. 70.01 74.94 68.66 .. 66.77 70.48 72.22 69.93 .. 74.16 .. .. 70.20 70.09 .. .. 70.16 73.84 68.74 .. 70.23 69.97 68.54 73.80 .. 70.13 74.92 68.59 .. .. .. .. .. .. .. .. 96.70 107.83 103.05 96.01 101.41 .. 98.11 96.48 94.86 .. 94.97 94.79 97.63 93.60 .. 100.39 .. .. 96.67 100.98 .. .. 80.22 105.80 97.89 94.02 98.83 90.49 97.71 99.34 .. 95.09 101.03 98.07 .. .. .. .. .. .. .. .. 61.18 63.40 60.69 61.77 60.29 .. 61.12 62.87 59.78 .. 58.83 61.01 61.64 60.10 .. 62.61 .. .. 60.69 61.29 .. .. 69.08 65.85 60.54 60.83 62.49 59.37 60.77 62.39 .. 60.58 63.27 61.27 .. .. .. .. .. .. .. .. 78.49 82.60 80.00 79.65 79.14 .. 78.72 80.40 77.84 .. 76.02 79.10 79.78 78.97 .. 80.95 .. .. 79.29 79.43 .. .. 81.06 80.62 78.55 77.89 79.13 78.72 79.04 80.60 .. 79.00 80.92 78.26 .. .. .. .. .. .. .. .. 110.63 115.66 110.92 110.50 110.80 .. 108.63 112.77 108.50 .. 102.43 109.23 111.78 109.41 .. 113.92 .. .. 110.23 109.30 .. .. 111.18 112.38 109.19 109.58 112.33 108.90 110.42 113.49 .. 110.67 112.51 109.81 .. .. .. .. .. .. .. .. 1 2 http://dx.doi.org/10.1787/888932714108 Prix au comptant du pétrole brut Dollars des EU par baril Prix nominal Prix réel, dollar des EU de 1970 120 Rebond de la demande à l’issue de la récession, resserrement des stocks, faible capacité de réserve Resserrement des capacités de réserve, interruptions de la production de brut au Nigeria, en Irak et en Mer du Nord 100 Les ouragans Katrina et Rita frappent la côte américaine du golfe du Mexique 80 Décollage de la croissance de la demande en Chine Guerre Iran-Irak 60 Révolution iranienne 40 20 Embargo pétrolier imposé par les pays arabes Fin de fixation des prix par voie administrative Invasion du Koweit Réductions visées des quotas de l'OPEP, resserrement des stocks Augmentation des quotas de l'OPEP, crise financière en Asie Deuxième crise du Golfe Crise financière mondiale 0 1 2 http://dx.doi.org/10.1787/888932714127 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 121 ÉNERGIE ET TRANSPORT • TRANSPORT TRANSPORT DE MARCHANDISES Transport Des données sur les transports sont de plus en plus demandées pour mesurer les diverses incidences de ce secteur sur l’économie, l’environnement et la société. Cependant, l’absence de définitions et de méthodes uniformes empêche parfois de procéder à des comparaisons internationales. Le Glossaire des statistiques de transport (4e édition) fournit des définitions communes. véhicules qui sont enregistrées sur le territoire d’un pays, indépendamment de la nationalité des véhicules transporteurs. Les statistiques fondées sur le principe de la nationalité prennent uniquement en considération les mouvements des véhicules immatriculés dans le pays déclarant. Évolution du transport intérieur de marchandises Milliards de tonnes-kilomètres Définition Les données relatives au transport de marchandises concernent l’ensemble des mouvements de marchandises effectués par les modes de transport intérieurs (rail, route, voies navigables intérieures et conduites) sur un réseau donné. L’unité dans laquelle ces données sont exprimées est la tonne-kilomètre, qui correspond au déplacement d’une tonne sur un kilomètre. La distance prise en compte est celle qui est effectivement parcourue. CAN FRA DEU ITA JPN GBR 550 500 450 400 350 Comparabilité 300 On parle de transport national lorsque le chargement et le déchargement ont lieu dans un même pays. Dès lors que l’une ou l’autre de ces opérations est effectuée dans un autre pays, le transport est considéré comme international. Les statistiques du transport routier international reposent sur le principe de la nationalité, se distinguant ainsi de celles des autres modes, qui sont fondées sur le principe de la territorialité. 250 200 150 100 1 2 http://dx.doi.org/10.1787/888932714184 Les statistiques fondées sur le principe de la territorialité rendent compte des entrées et sorties de marchandises et de En bref Après la crise économique et l’effondrement du commerce mondial qui a suivi en 2009, la plupart des régions du monde étaient sur la voie de la reprise en 2010. Alors que le transport mondial de marchandises par mer et par air a connu un nouvel essor et atteint de nouveaux sommets, la reprise du fret ferroviaire et routier se fait plus lente : ses volumes restent inférieurs aux niveaux d’avant la crise, ce qui témoigne davantage du bilan économique intérieur que de la situation des échanges. En 2009, la crise économique a porté un coup rude au fret ferroviaire, dont les volumes n’ont toujours pas renoué avec les niveaux d’avant la crise. En tonnes-kilomètres, le transport ferroviaire a affiché une croissance générale de 3 % en 2010. À l’intérieur de l’Union européenne, il a progres sé de 10 % pour atteindre un peu moins de 400 milliards de tonnes-kilomètres, ce qui représente encore 7 % de moins qu’en 2008. En Fédération de Russie et aux États-Unis, le trafic ferroviaire a crû de 8 % et 6 % respectivement, parvenant ainsi pratiquement à rattraper les niveaux de 2008. Le transport routier de marchandises, qui n’a pas été épargné en 2009, est lent à se rétablir. Les données pour 2010 révèlent une hausse générale du trafic, qui reste néanmoins en deçà des volumes de 2008. Exprimée en tonneskilomètres, cette croissance s’est élevée à 4 % au sein de l’Union européenne, mais la situation varie sensiblement d’un pays à l’autre. 122 Sources • Forum international des transports (FIT) (2012), “Coastal Shipping”, Forum international des transports (Base de données). • FIT (2012), “Container Transport”, Forum international des transports (Base de données). • FIT (2012), Inland Freight Transport, Forum international des transports (Base de données). Pour en savoir plus Publications analytiques • FIT (2012), Transport Outlook, FIT, Paris. • OCDE (2012), Strategic Transport Infrastructure Needs to 2030, Éditions OCDE. • OCDE (2011), Impacts Environnementaux de la Navigation, Le Rôle des Ports, Éditions OCDE. Publications statistiques • FIT (2012), Key Transport Statistics, FIT, Paris. • OCDE (2011), Évolution des transports 2011, Évolution des transports, Éditions OCDE. Publications méthodologiques • OCDE (2010), Illustrated Glossary for Transport Statistics 4th Edition, Éditions OCDE. Sites Internet • Forum international des transports, www.internationaltransportforum.org. PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • TRANSPORT TRANSPORT DE MARCHANDISES Transport terrestre de marchandises Milliard de tonnes-kilomètres Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-27 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 410.8 249.9 56.8 57.5 449.1 .. .. 16.1 143.9 9.9 5 009.6 35.6 250.0 13.5 26.3 8.7 .. .. 199.6 323.6 1.3 226.0 18.7 11.3 79.7 150.0 16.7 31.0 55.6 184.5 4.7 50.6 22.6 212.1 1 907.8 8 336.1 .. .. 2 313.5 1 904.9 715.5 .. 428.0 258.7 59.1 62.3 440.7 .. .. 16.6 153.3 11.3 5 157.5 35.4 264.4 14.2 25.2 10.8 .. .. 186.4 329.7 1.4 245.2 18.6 16.1 84.1 146.0 17.4 30.0 56.4 182.9 4.7 51.3 23.2 216.0 1 934.1 8 557.1 .. .. 2 351.1 2 120.1 775.0 .. 439.7 268.8 61.7 67.6 437.1 .. .. 17.7 168.4 12.0 5 165.9 37.9 270.4 14.7 25.2 12.8 .. .. 194.9 335.3 1.5 242.4 18.3 17.2 83.2 150.6 17.1 27.0 58.9 183.4 4.8 51.4 25.0 224.6 1 991.4 8 646.3 .. .. 2 719.7 2 341.9 806.4 .. 445.7 276.3 65.0 69.5 427.3 .. .. 17.5 181.1 13.2 5 186.0 36.6 269.8 14.8 32.4 12.9 .. .. 190.0 335.3 1.5 238.5 18.9 17.9 82.9 147.2 19.3 25.7 56.5 183.3 4.8 49.5 25.7 202.5 2 017.2 8 749.2 .. .. 2 679.3 2 473.5 848.2 .. 440.9 296.6 66.4 70.5 410.4 .. .. 18.1 204.6 14.1 5 302.6 37.8 267.8 15.0 31.5 14.9 .. .. 193.9 334.2 1.6 244.5 18.9 18.6 84.1 150.0 17.8 25.9 63.2 183.9 5.0 51.0 25.6 205.8 2 072.1 8 917.9 .. .. 2 890.2 2 657.9 898.2 .. 444.3 311.0 66.5 67.7 427.4 .. .. 18.2 212.3 16.1 5 379.4 41.1 266.2 15.2 33.0 16.3 .. .. 176.4 344.7 1.4 249.3 19.2 19.5 82.3 160.3 16.7 27.5 64.8 186.4 5.3 51.6 26.0 179.0 2 094.0 9 034.2 .. .. 3 149.6 2 925.4 976.2 .. 470.1 324.9 67.5 65.6 479.5 .. .. 17.9 241.1 17.3 5 588.5 42.5 271.4 16.1 36.7 17.7 .. .. 191.2 350.1 1.5 254.2 21.7 20.5 89.4 188.7 19.7 28.9 63.4 192.9 5.4 53.5 27.2 178.2 2 239.2 9 455.1 .. .. 3 711.8 3 192.4 1 057.3 .. 486.4 349.4 64.6 62.1 473.9 .. .. 18.2 254.1 18.3 5 649.8 41.6 262.6 16.5 41.9 18.5 .. .. 205.8 357.8 1.3 276.4 22.7 20.7 88.0 196.4 19.8 32.7 61.4 197.8 5.6 56.4 27.8 181.7 2 314.6 9 621.1 .. .. 4 162.8 3 295.2 1 100.7 .. 516.8 362.4 70.2 62.1 472.6 .. .. 18.3 262.6 19.3 5 729.3 40.9 271.2 17.2 48.4 17.9 .. .. 191.1 369.7 1.4 283.1 22.8 20.8 87.8 216.9 20.1 33.0 69.2 202.0 5.7 57.7 29.2 192.9 2 399.2 9 832.2 .. .. 4 616.8 3 390.1 1 249.6 .. 538.6 387.2 68.6 60.7 467.2 .. .. 18.2 278.9 19.1 5 850.3 40.4 279.6 18.2 53.9 19.3 .. .. 189.2 378.1 1.2 299.6 22.9 21.5 90.7 238.6 21.0 37.7 67.4 207.5 6.2 59.6 29.3 204.1 2 491.7 10 091.0 .. .. 5 261.7 3 523.1 1 366.0 .. 536.9 410.0 66.1 57.0 483.1 .. .. 16.8 262.4 14.2 5 814.7 41.9 265.4 17.7 53.5 17.4 .. .. 200.5 368.7 1.2 301.9 24.1 21.8 90.3 248.8 19.3 39.5 69.5 197.6 6.2 60.9 29.9 229.1 2 457.4 10 083.2 .. .. 7 733.0 3 509.1 1 465.9 .. 474.9 398.0 56.1 49.2 450.6 .. .. 15.6 227.5 12.2 5 372.2 36.6 223.9 17.5 50.1 12.1 .. .. 183.1 353.3 1.1 280.8 22.8 .. 79.2 258.9 16.1 35.3 60.5 176.7 4.9 52.5 27.6 231.9 2 185.8 9 183.0 .. .. 8 248.3 3 220.9 1 606.2 .. 499.0 415.5 57.9 49.5 423.3 .. .. 16.3 226.1 12.6 5 655.3 40.2 230.0 20.1 50.5 11.0 .. .. 185.9 339.0 1.1 299.1 23.3 .. 87.8 297.1 14.9 36.7 68.5 183.8 5.7 56.2 28.1 241.5 2 303.3 9 577.7 .. .. 8 563.5 3 387.6 1 728.0 .. 1 2 http://dx.doi.org/10.1787/888932714146 Transport intérieur de marchandises Croissance annuelle moyenne en pourcentage, pour 2000-10 ou dernière période disponible 10 13.6 8 6 4 2 0 -2 -4 1 2 http://dx.doi.org/10.1787/888932714165 PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 123 ÉNERGIE ET TRANSPORT • TRANSPORT TRANSPORT DE VOYAGEURS Alors que des études tendent à montrer que le trafic de voitures particulières est arrivé à saturation dans certains pays développés, la demande de mobilité continue de croître à l’échelle mondiale. Il faut donc disposer de données fiables et exhaustives sur la mobilité des voyageurs pour mettre au point des systèmes durables. L’absence de définitions et de méthodes uniformes empêche parfois de procéder à des comparaisons internationales. Le Glossaire des statistiques de transport (4e édition) fournit des définitions communes à l’ensemble des États membres de l’Union européenne, au Forum international des transports et à la Commission économique de l’ONU pour l’Europe. ce qui est du transport en voiture particulière ou des services non réguliers par autocars. Certains pays ne communiquent aucune donnée sur le transport en voiture particulière, tandis d’autres effectuent différents types d’enquêtes pour estimer le trafic voyageurs sur leur territoire. Comme il n’existe pas de méthode commune à cet égard et qu’aucune des méthodes employées ne permet d’avoir une vision complète du trafic voyageurs, les données disponibles ne sont pas toujours comparables entre les pays. Définition Dans le tableau ci-après, les données relatives au transport de voyageurs concernent l’ensemble des déplacements de voyageurs par les modes de transport ferroviaire et routier (voitures particulières, autobus ou autocars). L’unité dans laquelle ces données sont exprimées est le voyageur-kilomètre, qui correspond au déplacement d’un voyageur sur un kilomètre. La distance prise en compte est celle qui est effectivement parcourue. Comparabilité Si le trafic voyageurs est relativement facile à estimer dans le cas du transport ferroviaire et des services réguliers par autobus ou autocars, la tâche s’avère beaucoup plus difficile pour En bref Le transport ferroviaire de voyageurs a subi le plein effet de la crise économique après tous les autres secteurs, surtout en 2009, puis en 2010. Ainsi, en 2010, d’après les données exprimées en voyageurs-kilomètres, il a stagné dans l’Union européenne (+0.2 %), après avoir baissé de 2 % l’année précédente, et a même reculé dans un grand nombre de pays européens, principalement en Autriche (10 %), en Pologne (-4 %) et en Espagne (-3 %). Une poignée a su résister à cette tendance : le Royaume-Uni (+6 %), l’Allemagne (+2 %), la Suisse (+3 %), le Danemark (+3 %) et la Finlande (+2 %). Hors Europe, les données en voyageurskilomètres pour la Fédération de Russie indiquent une chute de 8 %, et les chiffres préliminaires pour la Chine une croissance nulle (+0.4 %), qui représente malgré tout 3 milliards de voyageurs-kilomètres supplémentaires. Des écarts prononcés demeurent entre les différents pays membres de l’Union européenne. En France et en Allemagne, le trafic ferroviaire de voyageurs s’est maintenu autour des niveaux d’avant la crise. Il continue de croître au Royaume-Uni, tandis que la situation ne cesse de se détériorer en Italie depuis la crise économique. S’agissant du transport en voiture particulière, on dispose de données moins précises et plus anciennes pour un grand nombre de pays. À l’intérieur de l’Union européenne, un recul de 1.5 % en moyenne est observé dans les 13 pays disposant de données pour 2010. Les États-Unis ont enregistré en 2008 la baisse la plus importante (-3.8 %) qu’ils avaient connue depuis la crise économique des années 90 (-3.6 % en 1991). 124 Sources • Forum international des transports (FIT) (2012), Inland passenger transport, Forum international des transports (Base de données). Pour en savoir plus Publications analytiques • FIT (2012), Transport Outlook, FIT, Paris. • OCDE Tendances et politiques du tourisme de l’OCDE, Éditions OCDE. • OCDE (2012), Strategic Transport Infrastructure Needs to 2030, Éditions OCDE. • OCDE, Forum International des Transports (2010), Améliorer la fiabilité des réseaux de transport de surface, Éditions OCDE. Publications statistiques • OCDE (2011), Évolution des transports 2011, Évolution des transports, Éditions OCDE. Publications méthodologiques • OCDE (2010), Illustrated Glossary for Transport Statistics 4th Edition, Éditions OCDE. Sites Internet • Forum international des transports, www.internationaltransportforum.org. PANORAMA DES STATISTIQUES DE L’OCDE 2013 © OCDE 2013 ÉNERGIE ET TRANSPORT • TRANSPORT TRANSPORT DE VOYAGEURS Transport intérieur de passagers Milliard de passagers-kilomètres 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Allemagne 968.3 Australie 259.2 Autriche 8.0 Belgique 120.1 Canada 501.5 Chili .. Corée .. Danemark 69.1 Espagne 339.8 Estonie 2.5 États-Unis 4 212.8 Finlande 64.5 France 771.1 Grèce 39.5 Hongrie 73.3 Irlande 1.4 Islande 3.9 Israël .. Italie 794.4 Japon 1 343.7 Luxembourg 0.3 Mexique 365.7 Norvège 56.5 Nouvelle-Zélande .. Pays-Bas 167.0 Pologne 195.7 Portugal 91.8 République slovaque 31.2 République tchèque 75.5 Royaume-Uni 716.4 Slovénie 23.5 Suède 105.8 Suisse 93.2 Turquie 192.3 UE-27 4 705.0 OCDE 11 687.8 Afrique du Sud .. Brésil .. Chine 971.6 Fédération de Russie 324.5 Inde 2 129.1 Indonésie .. 990.2 264.9 8.0 123.8 502.5 .. .. 70.1 361.0 2.5 4 285.1 65.9 794.4 41.9 73.8 1.5 4.1 .. 798.7 1 340.7 0.3 387.7 57.9 .. 171.4 197.8 97.5 32.3 78.0 726.2 24.8 108.3 94.7 181.4 4 813.6 11 887.3 .. .. 1 033.5 312.9 2 262.3 .. 975.7 270.2 8.2 127.2 503.5 .. .. 70.0 350.4 2.9 4 362.7 66.8 799.8 42.1 74.3 1.4 4.3 .. 854.6 1 335.5 0.3 381.8 58.7 .. 172.0 201.1 98.0 35.2 80.6 725.2 24.5 109.6 96.5 191.5 4 862.5 12 024.6 .. .. 1 119.0 340.4 2 532.5 .. 997.1 268.5 8.2 129.5 482.5 .. .. 69.4 357.3 2.9 4 364.7 68.0 828.6 42.9 74.5 1.5 4.5 .. 860.0 1 339.7 0.3 389.4 59.7 .. 172.6 206.9 98.9 35.1 81.4 739.1 24.9 110.7 97.5 173.8 4 951.2 12 416.6 .. .. 1 197.4 329.6 2 904.0 .. 1 001.9 274.4 8.3 132.2 494.5 .. .. 69.4 383.8 2.8 4 459.5 69.3 838.2 43.6 75.2 1.6 4.6 .. 854.6 1 337.7 0.3 393.3 60.6 .. 175.1 214.0 99.5 35.9 81.6 762.9 25.4 113.6 99.0 168.5 5 029.5 12 578.3 .. .. 1 277.5 323.1 3 329.7 .. 996.5 281.1 8.2 133.0 486.4 .. .. 70.1 392.3 2.8 4 492.3 70.6 843.3 43.6 76.4 1.6 4.7 .. 854.5 1 339.2 0.3 399.1 60.9 .. 176.2 222.0 100.1 35.3 83.3 761.0 25.6 114.2 100.1 170.2 5 050.6 12 627.6 .. .. 1 248.4 323.1 3 611.4 .. 1 009.1 293.2 8.3 135.5 489.7 .. .. 71.6 404.0 2.9 4 573.3 71.9 846.9 44.3 78.1 1.6 4.9 .. 865.1 1 333.0 0.3 410.1 61.7 .. 181.6 230.2 101.4 34.4 82.7 757.8 26.0 114.6 101.2 179.5 5 106.9 12 757.6 .. .. 1 446.1 332.6 4 045.0 .. 998.9 294.0 8.5 136.1 514.2 .. .. 71.7 412.6 3.2 4 590.9 72.9 840.2 44.3 76.5 1.8 5.1 .. 828.1 1 324.2 0.3 423.0 61.5 .. 179.6 244.5 101.3 35.7 83.9 753.4 26.3 115.0 103.3 187.2 5 075.8 12 793.7 .. .. 1 535.4 314.1 4 867.3 .. 1 008.2 293.3 9.3 137.6 511.5 .. ..
15,559
02/hal.archives-ouvertes.fr-hal-00928294-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
4,053
6,483
NOUVELLE MÉTHODE POUR LE PAIEMENT DU LAIT D'APRÈS SA TENEUR EN MATIÈRE GRASSE Raphael Moreau NOUVELLE MÉTHODE POURL LE PAIEMENT DU LAIT D'APRÈS SA TENEUR EN MATIÈRE GRASSE par RAPHAEL MOREAU Depuis le décret du 4 septembre 1956, les industriels laitiers effectuent le paiement du lait de vache d'après sa teneur en matière grasse. Celle-ci doit donc pouvoir être déterminée de façon aussi exacte que possible pour une période donnée, tout en n'entraînant pour l'industriel acheteur que des frais réduits au minimum. La précision de la détermination est d'autant plus nécessaire que la valeur actuelle du gramme de matière grasse est relativement élevée. Le vendeur, aussi bien que l'acheteur, doivent' pouvoir bénéficier de garanties sérieuses afin que les transactions aient toutes les chances de s'effectuer dans un climat, bien souhaitable, de confiance réciproque. Pourtant, selon les méthodes actuellement utilisées les opérations s'effectuent hors la présence du vendeur et le super-contrôle revêt souvent un caractère purement psychologique. Un doute peut ainsi naître dans l'esprit du fournisseur. Même si les-critiques ne sont pas fondées, ce doute peut facilement se transformer en un vif mécontentement lorsque la teneur en matière grasse trouvée n'est.pas conforme à celle escomptée. C'est ainsi qu'il nous a paru intéressant de proposer (*) une nouvelle méthode nous paraissant donner, tant au vendeur qu'à l'acheteur, des garanties indiscutables. Cette nouvelle méthode permet un super-contrôle à la fois simple et rigoureux, bien que' d'un prix de revient très inférieur à celui des méthodes usuelles. Dans l'espoir d'amener la disparition de pénibles contestations, nous soumettons donc à la critique de-I'expérience, une réalisation qui nous semble, dès maintenant, valable. PRINCIPE Lors de chaque contrôle, nous prélevons un échantillon delaitproportionnel à la quantité livrée, ce qui estrend u possible par I'ut.ilisa.tion d'une « pipette-sonde» spéciale, robuste et facile à nettoyer, ainsi que d'un récipient standard dans lequel est introduit le lait fourni. Même si le lait, par suite d'un brassage imparfait, n'est pas absolument homogène, l'échantillon obtenu représente bien la (*) Ce transvasement, officiellement prévu par la réglementation sur la Répression des fraudes, peut d'ailleurs ici, être supprimé - ce.qui, sur le plan bactériologique, constij;uerait un avantage de l'hygiène. qualité moyenne du lait livré, car le prélèvement est opere sur toute la hauteur du lait transvasé dans le récipient intermédiaire (*). Les divers prélèvements effectués au cours d'un même mois sont introduits successivement dans le même flacon, conçu à cet effet, et contenant un conservateur. Le flacon reste détenu pendant tout le mois par le fournisseur de lait et toutes dispositions sont prises pour qu'il soit inviolable. A la fin du mois, les flacons dans lesquels ont été introduits les échantillons successifs sont collectés et déposés au laboratoire d'analyse de la laiterie. L'ouverture de ces flacons, puis la détermination de la teneur en matièrè grasse du contenu de chacun d'eux sont ensuite effectués en présence du super-contrôleur mandaté par les agriculteurs. Une simple multiplication donne alors la valeur de la fourniture du mois. En cas de contestation, une seconde analyse peut être effectuée par le super-contrôleur lui-même, en présence du représentant qualifié de la laiterie. MATÉRIEL A R Le matériel nécessaire comprend une sonde-pipette, des flacons pour le stockage des échantillons, ainsi que des boîtiers protecteurs et, éventuellement, un récipient intermédiaire. 10 « Sonde-pipette» B D FIG. 1. - Sonde-pipette, Cette sonde-pipette (fig. 1) se compose d'un tube cylindrique B comportant à sa partie supérieure une poignée p2 et à sa partie inférieure fermée un disque à larges perforations D. Dans ce tube B est monté, à frottement, un deuxième tube cylindrique A dont l'extrémité effilée supporte une poignée Pl' Entre Pl et p2 un ressort R tend à écarter les deux. poignées. Les deux tubes concentriques A et B comportent chacun, suivant deux génératrices opposées, des trous équidistants (2) (*) Voir page précédente. (2) Les trous peuvent être remplacés par des lumières.rectangulaires rendant ainsi possible le prélèvement sur toute la hauteur du liquide sans discontinuité. En POUR LE PAIEMENT DU 507 LAIT La position de ces trous est telle qu'à la suite d'une pression exercée sur PI' les trous du tube A viennent coïncider exactement "avec ceux du tube B. Dans cette position, un liquide extérieur à. la pipette peut donc pénétrer à l'intérieur du tube A et s'y trouve emprisonné lorsque la pression exercée sur PI cesse. En effet, à partir de ce moment, le ressort tend à éloigner Pl de p2 et entraîne le tube A solidaire de Pl. Les échantillons prélevés, sont stockés dans des bocaux du type « Familia Wiss» dont la capacité est, selon l'importance des fournitures et le nombre de prélèvements envisagé au cours d'un mois, de 250, 500 ou l 000 cm". Il s'agit de simples flacons de verre à large ouverture dont la fermeture est assurée par une capsule métallique comportant un joint et un couvercle à vis. Ces flacons étant standard, il est possible de se les procurer dans le commerce à un prix modéré. 30 Boîtiers protecteurs. Les boîtiers sont destinés à assurer d'une part la" protection des flacons de prélèvement contre le risque de éasse et d'autre part leur inviolabilité. Il s'agit de boîtes métalliques perforées à double paroi. Entre les-parois A et B, pendant les périodes chaudes de l'année, il est possible de disposer de la mousse que l'on humidifie périodiquement en plongeant.le boîtier dans l'eau. effet, il. une lumière située sur une génératrice située sur la génératrice opposée. L'obturation succède immédiatement la lumière est alors réalisée par une rotation de 900 du tube intérieur par rapport au tube extérieur. Ce dispositif est, évidemment, préférable pour le prélèvement d'échantillons sur de faibles quantités (jusqu'à 3 litres). - NOUVELLE MÉTHODE L'eau ainsi absorbée s'évapore peu à peu en provoquant un abaissement de température (Procédé Kreipser pour la conservation des fruits). L'échantillon de lait est ainsi maintenu dans des limites de température acceptables, d'àutant plus que l'extérieur du boîtier peut être peint en blanc de façon à réfléchir les rayons lumineux. Le couvercle Cest arbiculé en 0 et la fermeture Fest conçue de telle façon qu'elle peut être facilement plombée. Le dispositif de fermeture choisi (loquet et mentonnet) rend pratiquementimpossible une rupture accidentelle des plombs. Enfin, un ressort R immo bilise le flacon dans le boîtier lorsque le couvercle 'est baissé. 1 ~ FIG. 2. - Boîtier-flacon. 4° Un flacon compte-gouttes, contenant une solution de formaldéhyde' à 50 p. 100. 5° Un flacon contenant des comprimés de 0,4 g de trioxyméthylène. 6° Une pince permettant l'apposition de plombs. 7° Récipient intermédiaire. Ce récipient de forme. cylindrique 40 litres. Il est conçu de la même façon utilisés dans les laiteries. Son diamètre 36 cm, sa hauteur d'environ 45 cm. Il a une capacité d'environ que les décalitres courants est approximativement de est gradué en litres., MODE OPÉRATOIRE 1. a) Choix Identification du fournisseur de l'indicatif. Chaque tournée de ramassage est représentée par une lettre de l'alphahet choisie arbitrairement une fois pour toutes. Dans le cadre de chaque tournée un nombre est attribué à chaque four- POUR LE PAIEl\IE~T DU LAIT 509 nisseur. L'indicatif d'un fournisseur est donc constitué d'une lettre suivie d'un nombre. b) Opérations à effect u A chaque fournisseur de lait sont attribués un flacon de pré. lèvement et un boîtier sur lesquels l'indicatif est reproduit à la r • peinture afin de rendre toute confusion impossible. A la fin de chaque mois, le personnel du laboratoire prépare pour le mois suivant les boîtiers et les flacons correspondants et porte l'indicatif du fournisseur sur la page du carnet où seront mentionnées les quantités de lait livrées journellement. Le même personnel établit en même temps, pour chaque tour. née de ramassage, un bordereau portant le nom, l'adresse, de chaque fournisseur ainsi que son indicatif. Sur ce bordereau seront ultérieurement enregistrés les résultats des analyses intéressant le mois suivant. 2. - Constitution Le lait froid (traite de la veille au soir) et le lait chaud (traite du matin) ne peuvent être mélangés. Ils feront donc l'objet de prélèvements distincts, mais ces prélèvements seront ensuite introduits dans le même flacon. 1er temps : Homogénéisation du lait objet du prélèvement. Le lait d'une même traite contenu dans un ou plusieurs réci-. pients est versé dans le ((récipient intermédiaire» ou brassé directement. Le brassage est réalisé en introduisant la ( sonde pipette» et en la soumettant à des mouvements' alternatifs de haut en bas et de bas en haut pendant quelques secondes. Le disque perforé situé à la base de celle-ci met le liquide en mouvement et assure une homogénéisat-ion'suffisante car le prélèvement est effectué sur toute la hauteur du liquide contenu dans le récipient.de transit (1). 2e temps: Prélèvement La ((sonde-pipette» est placée au centre du récipient intermédiaire, le disque reposant sur le fond. Une pression exercée sur la poignée supérieure met en communication l'extérieur et l'intérieur de la ( sonde-pipette». Le tube (1) L'homogénéisation pourrait, évidemment, être réalisée par tout autre moyen, mais sans doute moins simplement et moins rapidement. - NOUVELLE MÉTHODE central se'remplit jusqu'au niveau du lait contenu dans le récipient" intermédiaire; I'opérateur abandonne alors la pression. Le ressort se détend et entraîne la poignée solidaire du tube central qui remonte. Les trous se trouvent alors obturés et une quantité de lait sensiblement égale à 1 cm" par litre de lait contenu dans le récipient se trouve emprisonnée dans la sonde-pipette. Cet échantillon est alors facilement introduit dans, le flacon détenu par chaque fournisseur où sont stockés les prélèvements du mois. En effet, par simple retournement de la sonde-pipette, il s'écoule par l'orifice 0 de la partie effilée du tube intérieur (bout verseur). Il est évident que si la quantité de lait provenant d'une même traite est supérieure à 40 litres - capacité du récipient intermédiaire -l'opération est répétée autant de fois que cela est nécessaire. Dans le cas d'une fourniture journalière, de quelques litres seulement;' lors de chaque contrôle, le prélèvement est répété plusieurs fois,' mais toujours le même nombre de fois pour un même fournisseur, de manière à ce que le volume prélevé à la fin du mois puisse permettre au moins deux analyses (environ 25 cm") et reste proportionnel aux quantités livrées. Lors de chaque contrôle, il faudra avoir soin, avant d'ouvrir le flacon, dhornogénéiser le lait s'y trouvant déjà afin d'éviter toute perte de matière grasse. 3e temps: Addition du conservateur. Afin d'assurer la conservation de l'échantillon de lait ainsi obtenu, il sera introduit dans le flacon à prélèvement une solution de formaldéhyde à 50 p. 100 et des comprimés de trioxyméthylène de 0,4 g en quantité déterminée comme suit : a) Volumes prélevés compri s solution et 1/2 comprimé. entre 0 et 100 cm3 : 2 gouttes de b) Volumes prélevés supérieurs à 100 cm3: 2 n gouttes de solun tion :2 comprimés pour n fois 100 cm" de lait prélevé, les quan- + tités excédentaires inférieures à 100 cm" étant 100 cm" lorsqu'elles dépassent 25 cm". 3. - comptées pour, Une fois les opérations déjà décrites exécutées, le flacon qui a reçu le prélèvement et le conservateur est fermé par vissage à fond, du couvercle métallique qui, en appuyant sur la capsule, assure urie étanchéité parfaite. Le flacon est ensuite placé dans le boîtier métallique; le couvercle- de celui-ci est rabattu puis immobilisé par un dispositif à loquet et mentonnet prévu à cet effet. Enfin le boîtier est rendu inviolable par un plombage du dispositif de fermeture, plombage comportant une matrice de repérage. Le boîtier contenant le flacon de prélèvement est alors accroché à l'anse d'un bidon au moyen d'une chaînette dont l'extrémité est munie d'un mousqueton. Ainsi son transport ne provoque \ aucune gene. Il sera ensuite entreposé à,la ferme dans un endroit frais. A titre de précaution, par temps chaud, le fournisseur aura soin de plonger le boîtier dans l'eau avant de le joindre aux bidons de la livraison qu'il va effectuer. Dans ces conditions, la mousse se trouvant entre les deux parois cylindriques du boîtier sera humidifiée. Si celui-ci se trouve malencontreusement exposé au soleil, l'évaporation de l'eau, qui s'en suivra, évitera une trop grande élévation de température qui nuirait à la bonne conservation de l'échantillon de 4. - Ramassage des boîtiers A la fin du mois, les boîtiers toujours plombés, sont collectés par le personnel de la laiterie. A ce moment, les fournisseurs auront la possibilité d'apposer sur la fermeture un deuxième plomb, de garantie comportant une,matrice de repérage différente de celle adoptée par la laiterie, et de vérifier que boîtier et carnet portent bien le même indicatif. Les boîtiers sont ensuite déposés au laboratoire de la laiterie qui avise le super-contrôleur des agriculteurs de la date à laquelle les analyses seront effectuées. Jusqu'à cette date les boîtiers ne devront pas avoir été ouverts. 5. - Opérations effectuées au laboratoire Au moment de l'analyse, les boîtiers sont déposés par serres comportant un nombre de boîtiers égal à celui des godets de la centrifugeuse de Gerber. En présence du super-contrôleur, après avoir vérifié que le plombage est intact, les boîtiers sont ouverts et les flacons renfermant le lait prélevé en sont extraits. L'analyse est effectuée selon la méthode habituelle de Gerber en prenant les précautions prescrites par l'arrêté du 31 mars 1954 512 R. MOREAU. - NOUVELLE MÉTHODE pour le cas des échantillons de lait formolés: agitation soignée des butyromètres au fur et à mesure de leur remplissage et séjour dans un bain-marie à 65-700 avant centrifugation. Les résultats obtenus sont enregistrés sur le bordereau qui, à cet effet, a été établi à la fin du mois précédent. DISCUSSION DE LA MÉTHODE Principales causes d'erreurs inhérentes aux méthodes usuelles 1. - En examinant les méthodes habituellement employées pour le paiement du lait d'aprè's sa teneur en matière grasse, il apparaît que de nombreuses erreurs peuvent, en toute bonne foi, se produire et fausser les résultats. Un brassage insuffisant du lait objet du prélèvement, conduit à un échantillon qui ne représente pas le lait moyen. Suivant la partie prélevée l'échantillon peut être tout aussi bien plus riche ou plus pauvre en matière grasse que le lait moyen. Un bouchage défectueux du flacon de prélèvement peut amener une perte de matière grasse au cours du transport. Les flacons n'étant pas en général munis de repère individuel, les permutations fortuites sont possibles et même particulièrement faciles si l'ordre de rangement dans les caisses est le seul moyen d'identification. Les caisses elles-mêmes peuvent être par inadvertance, interverties au laboratoire avant l'analyse. Les calculs nécessaires pour l'obtention de la teneur moyenne en matière grasse d'un lait peuvent également donner lieu à des erreurs, en raison du nombre important d'analyses effectuées. Des.erreurs, lors de l'enregistrement des résultats d'analyses peuvent également se produire, en raison de nombreuses homo-' nymies que dans beaucoup de régions l'on constate parmi les noms patronymiques. 2. - A. -Elimination Avantages de la mé thode proposée de la plupart des sources d'erreur. Les garanties d'exactitude les plus sérieuses sont offertes tant à l'acheteur qu'au vendeur.. a) Aucune confusion entre les flacons de prélèvement n'est possible. L'indicatif du fournisseur est inscrit sur le flacon même, de façon indélébile. Le fournisseur le connaît par la mention portée sur son carnet et peut donc constater lui-même, à tout moment, s'il y a ou non une erreur.. POUR LE PAIEMENT DU LAIT b) L'ééhantillon soumis à l'analyse représente bien le lait moyen. En effet, grâce à la « sonde-pipette» le prélèvement est effectiIé à différents niveaux. Aussi, même si l'homogénéisation n'a pas été complète, l'erreur qui en résulte ne peut être que négligeable, alors que si l'on opère suivant la méthode habituelle, tout manque d'homogénéité se traduit par des taux de matière grasse erronés. Le tableau I donne les résultats d'un certain nombre d'analyses que nous avons eff~ctuées afin d'apprécier le degré d'exactitude de la méthode que nous proposons. TABLEAU r DÉTERMINATION DU TAUX DE MATIÈRE GRASSE D'ÉCHANTILLON DE DIVERS LAITS PRÉLEVÉS RESPECTIVEMENT SUIVANT PLUSIEURS TECHNIQUES Nombre de Deux supplémentaires transvase- Prélèvement de l'échantillon Résultats Un seul ments préalables Instrument utilisé' ordinaire Louche des analyses Les résultats son t exprimés 49.54 37,5 38 46,5 36 44 42 41 34 42 41 37,5 40 Sonde « Nibor » (1) Fond 45 52,5 36 35 J6 36 43 41, 40, 34 40,5 39 36,5 35 Sonde pipette Sur toute Îa hauteur 46 53,5 37 36,5 46 36 43,5 42 40,5 34 41 40 37 38 Sonde «Nibor »(1) Observations Milieu 46,5 53 37 36 46,36 43 42,5 40 34,5 41 40 37 37 Traite de la veille Traite de la veille Traite Traite de la veille de la veille Traite du matin Traite du matin Traite de la veille Traite Traite du matin de la veille Traite de la veille Traite de la veille 'I'ra.it e de la veille en grammes de matière grasse par litre et ont été en utilisant la méthode de Gerber obtenus (1) Cette sonde, couramment utilisée, est fabriquée 'et vendue à Surgères (Oharente-Maritime) ; elle est constituée' par un petit réservoir cylindrique fixé à Pextrémité d'un tube dans lequel passe une tige munie dune p,oignée qui commande une soupape d'admission située à la base du réservoir. Elle. permet donc de prélever environ 60 ml de lait en un seul point de l'ensemble du liquide. R. - NOUVELLE MÉTHODE Des déterminations de matière grasse ont été effectuées sur le lait transvasé une fois et prélevé d'une part à la partie supérieure, d'autre part, à la partie inférieure de la couche liquide, puis avec la sonde-pipette. Enfin un prélèvement a été effectué sur le lait pouvant être considéré comme parfaitement homogène puisqu'il a subi un brassage prolongé. Les résultats obtenus (tableau I) sont absolument identiques, aux erreurs d'expérience près, pour le lait homogène et le lait prélevé à la sonde-pipette. Par contre, les autres modes de prélèvement ont donné des écarts notables. Comme on pouvait' s'y attendre, lorsque la: sonde-pipette n'est pas utilisée, c'est* principalement pour le lait provenant de la traite de la veille que des différences sensibles ont été observées dans les résultats des analyses. Nos essais 0I\t été, évidemment, trop peu nombreux, mai's la netteté des résultats permet d'ores et déjà de penser que les conclusions que nous en avons tirées se trouveront confirmées lorsqu'il aura été procédé à de plus amples expérimentations. c) La simplicité des opérations de prélèvement permet de multiplier ceux-ci au cours d'un même mois sans pour cela augmenter en quoi que ce soit le travail à effectuer au laboratoire et par le service de comptabilité. Il suffit simplement de choisir des flacons et boîtiers de plus grande dimension. On peut ainsi très facilement éliminer les erreurs dues aux variations du taux de matière grasse qui peuvent survenir dans le même mois. d) Au cas où le fournisseur désirerait faire effectuer une analyse contradictoire, les prélèvements peuvent être effectués en double, sans qu'il s'en suive une perte de temps appréciable sur la route. e) Le lait prélevé peut subir aucune manipulation frauduleuse aussi bien alors qu'il est détenu par le fournisseur que pendant la période qui s'écoule entre l'arrivée au laboratoire et l'analyse. En effet, la fer~eture du boîtier est rendue inviolable par un plombage qui peut être double, l'un étant réalisé par le préposé de la laiterie, l'autre par le fournisseur.. D'autre part, fermeture du boîtier et plombage ont été conçus de telle façon que toute rupture accidentelle du plombage est rendue pratiquement impossible. Un climat de confiance est ainsi créé. f) La conservation de l'échantillon est assurée dans des candi. tians telles qu'il ne peut pas se produire une altération susceptible d'influencer la teneur en matière grasse du lait. Nous avons été amené à adopter, comme conservateur, un mélange formol-trioxyméthylène car son pouvoir de bloquer le POUR LE PAIEMENT DU LAIT 515 développement des germes semble supérieur à celui des autres conservateurs usuels ainsi que d'ailleurs l'ont montré BEJAMBES; Mocotro r et PAUTHE (2). B. - Simplicité d'exécution. Malgré la rigueur de la.méthode, celle-ci est d'exé,cution très facile. Le matériel nécessaire est peu important : un récipient de 40 litres et une sonde-pipette. Il n'est donc pas encombrant. Il est facile à nettoyer car la « sonde-pipette» se démonte très facilement. Il suffit d'enlever une simple vis pour libérer les deux pièces la composant. L'obligation pour le fournisseur de présenter le boîtier lors de chaque livraison de lait ne Peut constituer pour lui une gêne notable. En effet, le boîtier n'est pas encombrant et le flacon, est bien protégé, si bien qu'aucune précaution spéciale n'est nécessaire pour éviter la casse de celui-ci. Il suffit d'accrocher le 'boîtier à l'anse d'un bidon au moyen de la chaîne prévue à cet effet. En ce qui concerne les opérations au Iaboratoire, elles sont réduites à une seule détermination de matière grasse par fournisseur et par mois. Le lait est prélevé pour l'analyse directement dans le flacon de stockage sans qu'aucune autre manipulation soit nécessaire. Compte non tenu des majorations accordées pour propreté et non acidité, il ne reste plus à effectuer, pour les services comptables, qu'une multiplication pour déterminer la valeur du lait livré par un agriculteur pendant un mois. C. - Diminution des frais à supporter par l'industriel. La simplification extrême des opérations comptables ainsi que du' travail au laboratoire permettent à l'industriel laitier de réaliser des économies très substantielles. Nous ne saurions mieux mettre en évidence les importantes économies réalisées sur le flaconnage, la manutention, les réactifs et les opérations comptables qu'en prenant un exemple concret. Soit le cas d'une laiterie ayant 2 000 fournisseurs opérant quatre contrôles par mois ~t une analyse lors de chaque contrôle. Nous noterons que, selon la méthode habituelle, deux flacons en moyenne sont nécessaires par fournisseur (lait froid- et lait chaud) pour le prélèvement sur route et,un troisième flacon pour la constitution de l'échantillon moyen. En ce qui concerne la détermination de la teneur moyenne en matière grasse du lait fourni pendant la période considérée, nous admettrons qu'il est tenu compte des quantités livrées lors de 516 R. l\IOREAU. - NOUVELLE MÉTHODE chaque contrôle. O'est bien le cas dans la méthode proposée puisque les échantillons prélevés sont proportionnels au nombre de litres de lait fournis. La moyenne arithmétique des résultats d'analyse peut en effet conduire à des erreurs non négligeables (3). L'état comparatif du flaconnage, des réactifs pour l'analyse et des opérations comptables nécessaires pour l'obtention de la teneur en matière grasse moyenne d'une fourniture mensuelle, est donné par le tableau II. TABLEAU ÉTAT A) Verrerie COMPARATIF DU FLACONNAGE, DES RÉACTIFS ET DES OPÉRATIONS COMPTABLES Flacons à Méthode habituelle Méthode proposée. 16.000 2.000. Flacons pour constitution de l'échantillon moyen Total. Butyromètres B) Réactifs C) Opérations comptables ','. - 22.000 8.000 2.000 - 6.000 20 litres - 60 litres - 6 litres 80 litres <. litres ------ à enregistrer ------------. Multiplications. 30.000 ------ 2 litres -----2.000 -----néant ------ 28.000 -----8.000 8.000. 4.000 - 4.000 2.000 - 2.000 Additions Divisions. o 2.000 '" ---;-----------;-- Nombres 8.000 24.000 Alcool isoamylique ------- Différences pour prélèvements sur route laver II. Il ressort de l'examen du tableau I que la méthode proposée permet de réaliser une économie importante. Oette économie porte, non seulement sur les réactifs, mais surtout sur' la main-d'oeuvre nécessaire à la préparation etau lavage du matériel de prélèvement et d'analyse ainsi que sur la main-d'oeuvre spécialisée chargée des analyses et des travaux de DU LA 'Comptabilité. Ces derniers se trouvent ramenés à peu de chose. Les fiches individuelles sur lesquelles sont enregistrés les résultats des analyses effectuées lors de chaque contrôle s'avèrent inutiles. Il est à souligner qu'en suivant la méthode proposée, il y aura <lans le cas considéré, 12 fois moins de flacons et 4 fois moins de butyromètres à laver, que toutes les manipulations relatives à la constdtution de l'échantillon moyen sont supprimées et que le nombre des déterminations de matière grasse est 4 fois moindre. En face de ces économies considérables, une seule dépense supplémentaire réside dans l'achat de boîtiers effectué une fois pour toutes. CONCLUSION Nous avons proposé une méthode qui nous paraît simple et rigoureuse pour le paiement du lait d'après sa teneur en matière grasse., P~rce qu'elle est rigoureuse, elle est susceptible de créer un 'Climat de confiance entre -le vendeur et l'acheteur. Sa simplicité entraîne des' économies importantes ainsi que J'amélioration des conditions de travail du personnel des laboratoires d'analyse des laiteries, souvent surmené par le nombre fort -élevé d'opérations à réaliser. Enfin, grâce à cette méthode , le super-contrôle devient facile et efficient. SUMMARY.
19,271
153c1e5de51e0a0f2af9d43498e107a4_1
French-Science-Pile
Open Science
Various open science
2,015
Etude des connaissances, attitudes et pratiques en matière de réintégration sociale des femmes victimes de fistule obstétricale: région de l’Extrême-nord, Cameroun
None
French
Spoken
5,685
11,237
Open Access Research Etude des connaissances, attitudes et pratiques en matière de réintégration sociale des femmes victimes de fistule obstétricale: région de l’Extrême-nord, Cameroun Sanou Sobze Martin1,&, Sali Ben Béchir Adogaye1, Mabvouna Biguioh Rodrigue1, Douryang Maurice1, Teikeu Tessa Vladimir Vivaldi2, Saah Fopa Michael Amede1, Ovaga Eyenga Landry Marie3, Ausseil Sandra Meriam4, Vittorio Colizzi5, Russo Gianluca6 1 Département des Sciences Biomédicales, Faculté des Sciences, Université de Dschang, Cameroun, 2Faculté de Médecine, Pharmacie et d’odontostomatologie, Université Gamal Abdel Nasser, Conakry, Guinée, 3Faculté des Sciences de la Santé, Université Abdou Moumouni, Niamey, Niger, 4Association Eit Tiddeye, Niamey, Niger, 5Université de Rome “Tor Vergata”, Rome, Italie, 6Département de Santé Publique et de Maladies infectieuses, Faculté de Médecine et Pharmacie “Sapienza”, Université de Rome, Italie & Corresponding author: Sanou Sobze Martin, Département des Sciences Biomédicales, Faculté des Sciences, Université de Dschang, Cameroun Key words: Fistule obstétricale, réintégration sociale, Extrême-nord, Cameroun Received: 18/12/2014 - Accepted: 13/02/2015 - Published: 24/02/2015 Abstract Introduction: la fistule obstétricale est un orifice entre le vagin et la vessie ou le rectum, voire les deux. Ses impacts sont des conséquences anatomo-fonctionnelles et sociales. On estime à plus de 19 000 le nombre de femmes qui souffrent de fistule obstétricale au Cameroun. Méthodes: il s'agissait d'une étude transversale descriptive conduite dans trois districts de santé de la région de l'Extrême-nord. Vingt-huit femmes victimes de fistules obstétricales, quarante-deux membres de leur entourage et vingt-quatre agents de santé ont été interviewés entre Novembre et Décembre 2013. Trois types de questionnaires ont été utilisés. Les données ont été analysées dans Epi Info version 7.1.4.0. Les moyennes et les fréquences ont été calculées avec un intervalle de confiance à 95%. Résultats: 46,4% des femmes victimes de fistule obstétricales interviewées avaient subi une intervention chirurgicale réparatrice parmi lesquelles, 61,5% bénéficiaient de la réintégration. Le fonds de commerce (62,5%) était l'aide la plus reçue. Vingt-deux membres de l'entourage savaient pourquoi on fait la réintégration. Selon eux, les considérations socioculturelles (68,2%), sont la principale barrière de la réintégration. D'après les agents de santé, le suivi psychosocial (58,3%) est la principale activité de la réintégration dans les centres de prise en charge de la fistule. Conclusion: la prise en charge des fistules obstétricales au Cameroun souffre de manque de réintégration sociale. Ceci expliquerait en partie la persistance de cette pathologie. Un accent devrait être mis sur l'appui matériel, financier et sur le suivi psychosocial des femmes victimes de fistule obstétricale. Pan African Medical Journal. 2015; 20:172 doi:10.11604/pamj.2015.20.172.5959 This article is available online at: http://www.panafrican-med-journal.com/content/article/20/172/full/ © Sanou Sobze Martin et al. The Pan African Medical Journal - ISSN 1937-8688. This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by/2.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited. Pan African Medical Journal – ISSN: 1937- 8688 (www.panafrican-med-journal.com) Published in partnership with the African Field Epidemiology Network (AFENET). (www.afenet.net) Page number not for citation purposes 1 prise en charge chirurgicale, mais très peu de réintégration sociale Introduction des femmes opérées [23]. Pourtant, une enquête menée auprès de La fistule obstétricale (FO) est une lésion du tissu pelvien causée par un accouchement prolongé et difficile enl'absence de soins obstétricaux appropriés pour y remédier [1-3]. Littéralement il s'agit d'un orifice entre le vagin et la vessie ou le rectum, voire les deux, qui provoque une incontinence urinaire et/ou fécale chronique ayant des effets nocifs sur la vie sociale et l'état de santé de la femme [46]. Selon l'Organisation Mondiale de la Santé (OMS), environ 800 femmes meurent chaque jour dans le monde du fait de complications liées à la grossesse ou à l'accouchement [7]. En 2013, 289 000 femmes sont décédées pendant ou après la grossesse ou l'accouchement [7]. La quasi-totalité de ces décès (99%) se sont produit dans des pays en développement, dont plus de la moitié en Afrique subsaharienne (57%), ce qui fait de l'Afrique la région du monde où le ratio de mortalité maternelle est le plus élevé [7-10]. Pour chaque femme qui meurt, 20 à 30 femmes souffrent d'une maladie ou d'une invalidité à court ou à long terme, notamment une grave anémie, un dommage causé aux organes génitaux, une douleur chronique, la stérilité ou une sérieuse invalidité post-partum comme la FO [11,12]. Par ailleurs, santé maternelle et santé néonatale étant étroitement liées, près de 3 millions de nouveau- 99 femmes dans le service de Maternité de l´Hôpital provincial de Maroua entre Mai 2005 et juillet 2005 a montré qu'une femme sur trois interrogées pense qu'il faille se cacher et une femme sur dix suggère qu'il faille se suicider en cas de FO [24]. En tant que processus, la réintégration sociale permet aux femmes opérées de bénéficier d'une formation, des activités génératrices de revenue (AGR) et d'un capital qui leurs permettra de mettre en pratique la formation reçue une fois retournées dans leurs villages d'origines. Cette mission apparemment anodine, n'incombe pas seulement aux autorités sanitaires mais aussi à toute la société civile. En effet la réintégration sociale doit impliquer les leaders communautaires ainsi que les organisations à base communautaires (OBC) qui sont appelés à apporter un appui de proximité. Toutefois, le processus doit tenir compte de l'avis et des connaissances des femmes bénéficiaires afin de mieux comprendre leurs besoins, leurs attenteset leurs conceptions de la réintégration sociale. Afin d'atteindre cet objectif, nous avons mené une étude sur les connaissances, attitudes et pratiques en matière de réintégration sociale auprès des femmes victimes de fistule obstétricale (FVFO) dans la région de l'Extrême-nord, Cameroun. nés meurent chaque année donc 12,99% dans les pays en voie de développement [13,14]. On dénombre également 2,6 millions d'enfants mort-nés chaque année [15]. En outre, environ 40% de Méthodes tous les décès d'enfants de moins de cinq ans sont des décès néonataux [14]. On estime à environ 2 à 3,5 millions le nombre de Il s´agissait d´une étude transversale descriptive conduite dans femmes souffrant de manière permanente des problèmes liés à la trois districts de santé (Doukoula, Moulvoudaye, et Yagoua) de la FO dans les pays en développement, avec 50 000 à 100 000 région de l'Extrême-nord, Cameroun entre Novembre et Décembre nouveaux cas chaque année [16,17]. Pratiquement éradiquée dans 2013. Ces districts de santé ont été choisis parce que c'est delà que les pays développés, la FO continue à faire des ravages dans les proviennent la majorité des FVFO. L'étude a consisté au recueil des pays l'Afrique données sur les connaissances, attitudes et pratiques sur la subsaharienne [16-18]. Au Cameroun, c'est plus de 19 000 femmes réintégration sociale des FVFO. L'enquête a été conduite auprès des qui souffrent de FO, la majeure partie se trouvant dans la région de FVFO, leur entourage et le personnel socio-sanitaire intervenant ou l'Extrême-nord [19]. Les impacts liés à la FO sont d'une part des non dans la prise en charge de la FO. Les femmes interrogées sont conséquences répétition, issues du répertoire régional des femmes victimes de fistule obtenu stérilité, infirmité sexuelle, incontinence urinaire et/ou fécale). à la Délégation Régionale de la Promotion de la Femme et de la D'autre part des conséquences sociales telles que l'exclusion sociale, Famille. Ce répertoire comptait cent (100) femmes reparties dans rejet du mari, stigmatisation, discrimination et une pauvreté toute la région. Les femmes ayant refusées de participer à l'étude iatrogène suite aux dépenses catastrophiques [20-22]. n'ont pas été enregistrées, ni dénombrées. Pour le recueil des pauvres notamment ceux de anatomo-fonctionnelles l'Asie et (infections de à données, trois types de questionnaires ont été administrés par Le Cameroun s'est engagé dans une campagne de chirurgie des FO interview direct. Ils comportaient des questions fermées et ouvertes à travers diverses activités soutenues par ses partenaires techniques auxquelles un code a été attribué. Les données ont été entrées dans et financiers. Ces activités comprennent entre autre la prévention, la l'ordinateur à l'aide du logiciel Microsoft Office Excel' 2013, et Page number not for citation purposes 2 importés dans Epi Info version 7.1.4.0 (CDC, Atlanta, GA, USA) pour ruminants est l'aide la plus sollicitée (63,5%), suivi par le fonds de analyse. Les femmes n'ayant pas répondu intégralement à toutes commerce (17,9%), les semences agricoles (10,7%) et en fin par la les questions ont été exclues de l'analyse. Après dépouillement, les formation professionnelle (7,9%) (Figure 2). Toutes les femmes données de vingt-huit femmes sur quarante-deux interrogées, de déclarent que ces aides permettrons à gagner leurs vies, toutefois quarante membres de l'entourage et de vingt-quatre agents de 28% d'entre elles ont affirmé que cela ne leur fera pas oublier leur santé ont été analysées. Les moyennes et les fréquences ont été situation de porteuse de FO. La plupart des femmes (75%) calculées avec un intervalle de confiance à 95%. pensaient que leurs maris seront favorables à leur inclusion dans le processus de réintégration sociale, 7,2% envisageaient plutôt un refus de leur part et 17,8% étaient indécises quant à la réaction de leurs maris. De même, 50% des femmes pensaient que leurs Résultats communautés d'origine accepteront les aides, 28,6% étaient Description de l'échantillon : l'âge moyen des FVFO était de 44 ans (range : 20 ' 84 ans), 67,9% d'entre elles étaient mariées, 25% veuves et le reste (7,1%) étaient séparées ou divorcées. Chez l'entourage et les agents de santé, les moyennes d'âge étaient de 36 ans (range : 14 ' 73 ans) et 35 ans (range : 22 ' 48 ans) respectivement. Les personnes de l'entourage des FVFO étaient des membres de la belle-famille (47,5%), les conjoints (25%), un parent (4%), un frère/s'ur (4%) ou un(e) ami(e) (3%). Concernant le niveau d'étude, la plupart des FVFO étaient illettrées (60,7%), 50% de leur entourage et 83,3% des agents de santé avaient un niveau d'étude secondaire respectivement (Figure 1). L'étude de l'occupation professionnelle a montré que 39,3% des FVFO étaient des commerçantes, 32,1% sans emploi et 28,6% étaient cultivatrices ou éleveuses. Pour ce qui est de leur entourage, 67,5% étaient sans emploi, 12,5% commerçants, 7,5% employés du secteur public contre 5% du secteur privé et 7,5% étaient cultivateurs ou éleveurs. Parmi les agents de santé, on dénombre un médecin, dix aides-soignants, dix infirmiers et trois agents santé communautaires. Connaissances des FVFO en matière de réintégration sociale: parmi les 28 FVFO interviewées, 46,4% avaient déjà subi une intervention chirurgicale de réparation principalement à l'hôpital régional de Maroua. Ces dernières avaient été informées de la réintégration sociale, en revanche 61,5% en étaient bénéficiaires.Le fonds de commerce (62,5%) et le matériel génétique d'élevage (37,5%) sont les principaux appuis reçus par celles-ci. Tous ces appuis ont été développés en AGR, et toutes les bénéficiaires en sont satisfaites. D'une manière générale, toutes les femmes enquêtées pensent que la réintégration sociale est une activité bénéfique pour la FVFO, 64,3% savaient pourquoi on fait la réintégration sociale et 42,9% connaissaient une femme qui en avait déjà bénéficié. Le matériel génétique pour l'élevage de petits indécises, 10% pensaient au rejet, également 10% pensaient à une indifférence de leurs communautés vis-à-vis des appuis reçus. Connaissances de l'entourage des FVFO en matière de réintégration sociale :vingt-cinq personnes de l'entourage des FVFO étaient informées de la réintégration sociale, parmi lesquelles 22 savaient pourquoi on fait la réintégration sociale et tous ont affirmé qu'il s'agissait d'une activité bénéfique pour les FVFO. Pour ces derniers, la réintégration sociale est une activité qui vise principalement à aider la femme à : mieux se sentir dans son foyer (68,2%), accepter son statut de porteuse de fistule (18,2%), subvenir à ses besoins (9,1%), enfin, à se faire accepter dans la communauté (4,1%) (Tableau 1). Toutefois dans l'optique d'atteindre un résultat optimal, ils suggèrent d'impliquer les conjoints des femmes dans le processus de réintégration (50%), d'orienter les aides en fonction des besoins des femmes (36,4%) et de prendre la femme en charge avec toute sa famille (13,6%). Aussi selon eux, les considérations socioculturelles (68,2%), l'absence de suivi des femmes (18,2%) et le non implication des autorités traditionnelles et religieuses (13,6%) représentent les principales barrières auxquelles la réintégration pourrait se heurter (Tableau 2). Enfin, l'ensemble des personnes de l'entourage de FVFO préfèrent le commerce (92,5%) et l'élevage de petits ruminants (7,5%) comme activités de réintégration sociale. Connaissances des agents de santé en matière de réintégration sociale: la moitié des agents de santé (50%) interviewés au cours de cette étude participaient directement à la réintégration sociale des FVFO. Les avis de tous les agents de santé recueillis en ce qui concerne le processus de réintégration social des FVFO relèvent que les activités actuellement mises en 'uvre dans les structures de prise en charge comprennent : le suivi psychosocial (58,3%), les donations diverses (29,2%) et des appuis au développement des AGR (12,5%) (Figure 3). Toujours selon eux, Page number not for citation purposes 3 près de 83% de FVFO ayant bénéficié de la réintégration sociale discussion de notre thématique s'est basée sur des études portant sont acceptées une fois retournées dans leurs villages d'origine. Les sur la FO en général. limites actuelles de la réintégration sociale évoquées par les agents de santé sont : la mauvaise gestion des aides au niveau des centres Description de l'échantillon : contrairement à d'autres études de prises en charge (41,7%), la faible adhérence des femmes qui présentent la FO comme étant un facteur de divorce ou de (25%), la non implication des autorités traditionnelles et religieuses séparation [31-34], la majorité (67,9%) des FVFO de cette étude (16,7%) (12,5%). Ainsi, les étaient mariées. Cette situation assez particulièrepeut être attribuée suggestions faites par les agents de santé pour l'amélioration de à des nombreuses campagnes d'éducation et de communication cette activité sont : l'implication de tous les acteurs sociaux pour le changement de comportement (CCC) en matière de FO qui (autorités sont et les obstacles traditionnelle socioculturels et religieuse, organisations à base conduites dans la région de l'Extrême-nord [35]. communautaire, les époux, les proches des FVFO, etc.) dans le L'intensification des campagnes de sensibilisation pourrait donc processus de réintégration (58,3%), la prise en charge des FVFO aider à lutter efficacement, voire à éradiquer la FO. Les conjoints avec toutes leurs familles (29,2%) et l'octroi des appuis au (25%) et les membres de la belle-famille (47,5%) des femmes ont développement des AGR en fonction des besoins de chaque acceptés de participer à l'étude. Ce qui montre que la question de la bénéficiaire (12,5%). FO est abordée au niveau du couple et/ou familial et témoigne aussi d'un changement de comportement profond vis-à-vis de la FO, de Activités suggérées en vue d'améliorer la réintégration l'acceptation de la femme comme porteuse de fistule, et d'un sociale des FVFO: afin d'améliorer la réintégration sociale des changement de perception de la FO qui n'est plus perçue comme FVFO, les avis de l'ensemble des participants de cette étude ont été une malédiction ou une pathologie d'origine mystique [35]. De recueillis demanière à formuler les recommandations les plus nombreuses études ont déjà montré que l'analphabétisme et la adaptées. D'une manière globale, on retient que le suivi sanitaire pauvreté étaient des facteurs de risque de survenue de la FO [36- (27,2%), l'appui financier (26,1%), le suivi psychosocial (19,6%), 38]. Nous sommes arrivés à la même observation. Dans cette étude, l'octroi des AGR (13%), la création des comités locaux de gestion la plupart des FVFO étaient illettrées (60,7%), sans emploi (32,1%) des aides (13%) et l'appui logistique (1,1%) sont les principales ou exerçaient une petite activité de subsistance (commerce, activités à intégrées dans le processus de réintégration sociale des élevage). On pense en effet que, lorsqu'une femme est instruite, FVFO (Tableau 3). elle a plus de chance d´avoir une bonne culture sanitaire, ce qui larendra consciente de l´importance des soins obstétricaux de qualités et luipermettra d´adopter un meilleur comportement vis-àvis de la médecine moderne. Quant à une activité économique Discussion rémunérée, elle constitue une source de revenu supplémentaire Notre étude visait à faire une analyse situationnelle des connaissances, aptitudes et pratiques en matière de réintégration sociale des FVFO dans la région l'Extrême-nord, Cameroun. Pour ce faire, nous avons enquêté les femmes opérées ou porteuses de FO, leur entourage et les agents de santé. La FO étant une affection à caractère stigmatisant et discriminatoire [25], très peu de femmes se déclarent comme en étant porteuse de peur d'être l'objet de moquerie, de rejet ou de toute sorte d'humiliation [25-30]. Par conséquent, les femmes qui ont participé à cette étude ont été retrouvées à partir du répertoire des FVFO de la Délégation Régionale de la Promotion de la Femme et de la Famille de l'Extrême-nord. Par ailleurs, très peu d'études ont été conduites sur la problématique de la réintégration sociale des FVFO, ainsi la pour le ménage et pour la femme, nécessaire à l´achat des biens et services relatifs aux soins de santé. Ainsi,le développement socioéconomique est un aspect non négligeable dans la lutte contre la FO en milieu défavorisé. Connaissances en matière de réintégration sociale des FVFO: la plupart des femmes souffrant de FO sont originaires des zones rurales très reculées ayant un accès limité à l'information, ce qui peut expliquer le fait que peu de femmes (46,4%) aient bénéficié d'intervention chirurgicales qui se déroulent à l'Hôpital Régional de Maroua dans le cadre des campagnes de réparation la FO [19, 32]. La totalité des femmes opérées ont été informées de la réintégration sociale, cependant 38,5% d'entre elles n'en bénéficiaient pas. En effet, la plupart des interventions de prise en charge de la FO sont des opérations chirurgicales de réparation et à Page number not for citation purposes 4 base hospitalière. Pourtant, les FVFO ont besoin d'une assistance seulement à cause de la douleur chronique qui empêche la femme post opératoire particulière afin de surmonter le traumatisme d'exercer une activité nécessitant beaucoup d'effort physique, mais psychologique et aussi à cause des mauvaises odeurs permanentes que la femme communautés et de démarrer une AGR [30]. Dans les cas dégage et qui restreignent fortement sa fréquentation [31-33]. particuliers de non guérison, où la fistule est très complexe pour Ainsi, une réparation définitive et où l'incontinence (urinaire/fécale) est (agriculture) permanente, la patiente aura besoin non seulement d'un suivi interpersonnelles (commerce) est inappropriée et surtout inadaptée médical permanent, mais aussi d'un suivi psychosocial et d'une aide au contexte des femmes porteuses de FO. Au-delà des fausses financière. Dans cette étude 64,3% des femmes interviewées perceptions surla FO qui est considérée comme une punition infligée savaient pourquoi on faisait la réintégration sociale, mais seulement aux « femmes légères » (infidèles), le rejet dontsont victime les 42,9% de celles-ci connaissaient une femme réintégrée. Or, les FVFO a été rapporté comme laconséquence des écoulements femmes opérées ayant été réintégrées doivent être utilisées comme fréquents et odeurs d'urine, mais aussi comme la conséquence de des éducatrices afin d'encourager d'autres femmes porteuses de l'incapacité d'entretenir des relations sexuelles avec leurs conjoints fistule à adhérées aux programmes de prise en charge mis en [29,31, 33, 40]. Ainsi en dépit du fait que 50% et 75% des femmes œuvre dans leurs communautés. C'est l'une des approches pensent respectivement que leurs communautés et leurs maris innovatrices utilisées par la Foundation for Women's Health respectifs accepteront les aides, la réussite de la réintégration Research and Development (FORWARD), qui consiste à intégrer les sociale des FVFO suppose une prise en charge médicale adéquate femmes réintégrées dans la mise en œuvre des activités du projet pour une réparation complète afin que la femme retrouve son au niveau de leurs villages d'origine. Ce qui améliore le suivi de estime. Le cas échéant,les femmes serontacceptées par leurs l'évolution des AGR au niveau communautaire [39]. Malgré ce proches une fois retournées dans leurs villages, ce qui sans doute manquement, 72% des FVFO de cette étude pensent que la contribuera à les aider à mieux se sentir dans leurs foyers réintégration sociale est une activité bénéfique pour elles. Comme respectifs. Maisdans le cas contraire, la femme sera définitivement lesFVFO interviewées, plus de 60% de leur entourage avait été désappropriée de son rôle sociale [31, 35, 40]. Ce qui explique en informé de la réintégration sociale et 88% de ces derniers pensaient partie le fait que 28% des FVFO déclarent que l'aide reçu ne leur que cette activité est bénéfique pour la femme porteuse de fistule. fera pas oublier leur situation de porteuse de fistule. On savait déjà Le fonds de commerce était l'aide la plus sollicitée par ceux-ci. que l'organisation socioculturelle des communautés était l'un des Cependant à cause de l'insuffisance des ressources en partie liée facteurs de risque de la FO [41]. Selon les personnes de l'entourage aux problèmes de mauvaise gestion, la réintégration sociale des des FVFO interrogées, c'est aussi une barrière de la réintégration femmes se fait majoritairement à travers le suivi psycho-social sociale (68,2%). Au niveau des structures de prise en charge des (58,3%). FVFO, il s'agit principalement de la mauvaise gestion de l'aide d'avoir été rejetées par leurs familles toute activité ou imposant impliquant beaucoup d'effort physique directement des relations (41,7%) et de la faible adhérence des femmes au programme de Aptitudes et pratiques en matière de réintégration sociale réintégration (25%). C'est pourquoi la méthodologie participative des FVFO:contrairement aux autres activités économiques, le avec implication des autorités traditionnelles et des conjoints est commerce génère rapidement et facilement de l'argent. Ce qui suggérée pour la bonne mise en œuvre des activités de explique en partie le fait que le fonds de commerce soit l'aide la plus réintégration sociale des FVFO. sollicitée (62,5%) parmi les femmes opérées. En effet, les FVFO ont besoin d'argent pour une utilisation quotidienne (logement, nutrition, vêtement) mais aussi pour payer d'autres soins de santé Conclusion liés aux problèmes sous-jacents àla FO, comme les infections urogénitales causées par la fuite incontrôlée et permanente des urines et des selles [32, 33]. Ce constat est assez différent lorsqu'on considère tous les avis des FVFO (opérées ou non) en matière de pratique de la réintégration sociale. A ce niveau la majorité des femmes optent pour une activité moins contraignante : l'élevage (64,3%). En effet, la FO est une pathologie invalidante non La présente recherche ressort les informations collectées au cours de 92 entretiens auprès de trois groupes d'informateurs: les femmes victimes de fistules obstétricales, leur entourage et les agents de santé. Cette étude fournit les connaissances de base pour la mise en place d'un programme multidisciplinaire de prise en charge de la Page number not for citation purposes 5 FO. Egalement à long terme, elle vise à contribuer à l'éradication de Remerciements la fistule obstétricale dans les zones endémiques. En effet, cette étude s'inscrit en continuité des activités de réparation chirurgicales des FO effectuées en milieu hospitalier. Pour ce faire, les femmes atteintes de fistules qui ont pu être soignées et réhabilitées devront servir d'exemple pour un effet d'entraînement dans leurs communautés d'origine. Une sensibilisation de proximité ciblant les autorités traditionnelles, la communauté en général et en particulier les femmes en âge de procréer contribuera non seulement à l'augmentation du nombre de fréquentation des Nos remerciements vont à l'endroit du Délégué régional de la santé publique de l'Extrême-nord, au Délégué Régionale de la Promotion de la Femme et de la Famille de l'Extrême-nord, aux Chefs de Service de Santé de Districts de Yagoua, Doukoula et Moulvoudaye et aux enquêteurs chargés de la collecte des données de cette étude. formations sanitaires, mais aussi à l'adhésion aux programmes de prise en charge et au recrutement des nouveaux cas. La sensibilisation Tableaux et figures permettra aussi avant tout de délivrer un message de prévention sur les facteurs de risque de survenue de la fistule obstétricale. La Tableau 1: opinions des personnes de l’'entourage sur la prise en charge communautaire de la FO peut être améliorée à réintégration sociale des FVFO travers deux approches : un appui matériel, financier et un suivi Tableau 2: principales barrières de la réintégration sociale des psychosocial. Dans le premier cas il s'agira de mettre en place des FVFO selon les personnes de leur entourage organisations à base communautaires chargées de suivre les FVFO, Tableau 3: activités suggérées par les participants en vue leur apporter un soutien matériel (semences et outils agricoles, d’améliorer la réintégration sociale matériel génétique), promouvoir les programmes d'aides financières Figure 1: répartition des niveaux d’étude des participants en vue de leur permettre d'entreprendre des activités génératrices Figure 2: principales appuis sollicités par les femmes victimes de de revenus et de créer des structures chargées de centraliser les fistule obstétricale productions pour leur commercialisation. Dans le second cas, il sera Figure 3: activité de réintégration sociale mise en œuvre dans les question de mettre en place un système de visites à domiciles dans centres de prise en charge de la fistule obstétricale selon les agents le but d'apporter du réconfort et aider la femme à accepter son de santé statut de porteuse de fistule. Ces réponses locales viennent compléter celles proposées par le gouvernement et ses partenaires pour la prise en charge de la FO, qui aujourd'hui ne semblent plus Références suffisantes pour soulager définitivement les FVFO. Toutefois, ces approches doivent tenir compte des difficultés auxquels font face les FVFO et des avis de leurs conjoints et entourage. 1. Hilton P. Vesico-vaginal fistulas in developing countries.International Journal of Gynecology & Obstetrics. 2003; 82(3): 285-295. PubMed | Google Scholar Conflits d’intérêts 2. Nafiou I, Idrissa A, Ghaïchatou AK, Roenneburg ML, Wheeless CR, Genadry RR. Obstetric vesico-vaginal fistulas at the National Hospital of Niamey, Niger. International Journal of Les auteurs ne déclarent aucun conflit d'intérêts. Gynecology & Obstetrics. 2007; 99 Suppl 1: S71- S74.PubMed | Google Scholar Contributions des auteurs 3. Les auteurs ont contribués de manière égale à la conception, à la mise en œuvre, à l'analyse et interprétation des données, à l'élaboration de l'article et à sa révision. La dernière version du Moudouni S, Nouri M, Koutani A, Ibn Attaya A, Hachimi M, Lakrissa A. Les fistules vésico-vaginales obstétricales A propos de 114 cas. Progrès en Urologie. 2001; 11: 103- 108. PubMed | Google Scholar manuscrit a été validée par tous les auteurs. Page number not for citation purposes 6 4. Arrowsmith S, Hamlin EC, Wall LL. Obstructed Labor Injury Complex: Obstetric Fistula Formation and the Multifaceted 14. UNICEF. "Committing to Child Survival: A Promise Renewed" 2012. New York. UNICEF. Google Scholar Morbidity of Maternal Birth Trauma in the Developing World. Obstetrical & gynecological survey. 1996; 51(9): 568- 574.PubMed | Google Scholar 15. Cousens S, Blencowe H, Stanton C, Chou D, Ahmed S, Steinhardt L, Creanga AA, Tunçalp O, Balsara ZP, Gupta S, Say L, Lawn JE. National, regional, and worldwide estimates of 5. Danso KA, Martey JO, Wall LL, Elkins TE. The epidemiology of stillbirth rates in 2009 with trends since 1995: a systematic genitourinary fistulae International Urogynecology in Kumasi, Ghana, 1977-1992. analysis. The Lancet Global Health. 2011; 377(9774): 1319- Journal. 1996; 7(3): 30. PubMed | Google Scholar 117- 120. PubMed | Google Scholar 16. OMS. 6. 10 faits sur la fistule obstétrique. Donnay F, Ramsey K. Eliminating obstetric fistula: Progress in 2014.http://www.who.int/features/factfiles/obstetric_fistula/fr/ partnerships. ; Consulté le 15 Août 2014. Google Scholar International Journal of Gynaecology & Obstetrics. 2006; 94(3): 254-261. PubMed| Google Scholar 17. UNFPA. Quand l'accouchement nuit à la santé: la fistule 7. OMS. Mortalité maternelle. Aide-mémoire N°348. 2014. obstétricale. 2014. http://www.who.int/mediacentre/factsheets/fs348/fr/. Consulté http://www.unfpa.org/webdav/site/global/shared/factsheets/sr le 15 Août 2014.Google Scholar h/FR-SRH%20fact%20sheet-Fistula.pdf; Consulté le 15 Août 2014. Google Scholar 8. UNFPA. La santé maternelle en Afrique. 2013. Disponible sur www.unfpa.org.Google Scholar 18. Vangeenderhuysen C, Prual A, Ould el Joud D. Obstetric fistulae: Incidence estimates for sub-Saharan. Int J Gynaecol 9. Mahmoud FF. Human rights aspects of safe motherhood. Best Obstet. 2001 Apr;73(1):65-6. PubMed |Google Scholar Practice & Research Clinical Obstetrics & Gynaecology. 2006; 19. Institut National de la Statistique, Ministère de l'Economie de la 20(3): 409-419. PubMed | Google Scholar Planification et de l'Aménagement du Térritoire, Minitère de la 10. WHO, UNICEF, UNFPA, the World Bank. Trends in Maternal Mortality: 1990 to 20 2012. Geneva, Switzerland; Santé Publique. Enquête Démographique et de Santé et à Indicateurs Multiples (EDS-MICS). 2012. Maryland, USA ICF International, Calverton. Google Scholar OMS. Google Scholar 11. Guttmacher Institute, UNFPA. "Adding it Up: The Costs and 20. Ampofo EK, Omotara BA, Otu T, Uchebo G. Risk factors of Benefits of Investing in Family Planning and Maternal and vesico-vaginal fistulae in Maiduguri, Nigeria: a case-control Newborn study. Health". 2009 New York, USA. Guttmacher Institute. Google Scholar Tropical doctor. 1990; 20(3): 138- 139.PubMed | Google Scholar 12. Say L, Chou D, Gemmil A, Tunçalp O, Moller AB, Daniels J, 21. Browning A, Fentahun W, Goh JTW. The impact of surgical GülmezogluMetin A. Global Causes of Maternal Death: A WHO treatment on the mental health of women with obstetric fistula. Systematic Analysis. The Lancet Global Health. 2014; 2(6): British journal of obstetrics and gynaecology. 2007; 114:1439- e323-e333. PubMed | Google Scholar 1441. PubMed | Google Scholar 13. UNICEF, WHO, the World Bank, United Nations Population 22. Wall LL. Obstetric vesicovaginal fistula as an international Division. The Inter-agency Group for Child Mortality Estimation public health problem. Lancet. 2006 Sep 30;368(9542):1201- (UN IGME). Levels and Trends in Child Mortality. 2013; New 9. PubMed | Google Scholar York, USA UNICEF. PubMed | Google Scholar Page number not for citation purposes 7 23. UNFPA, Ministère de la Santé Publique. Analyse de la situation 32. Gharoro EP, Agholor KN. Aspects of psychosocial problems of des fistules obstétricales dans les régions de l'Extrême-nord et patients with vesico-vaginal fistula. Journal of Obstetrics du Nord au Cameroun. 2004 ; UNFPA. Google Scholar &Gynaecology. 2009; 29(7): 644-647.PubMed | Google Scholar 24. Tebeu PM, De Bernis L, Boisrond L, Le Duc A, Mbassi AA, Rochat CH. Connaissance, attitude et perception vis-à-vis des 33. Muleta M, Hamlin EC, Fantahun M, Kennedy RC, Tafesse B. fistules obstétricales par les femmes camerounaises Une Health and social problems encountered by treated and enquête clinique conduite à Maroua, capitale de la province de untreated l'Extrême-nord du Cameroun. Elsevier Masson, Progrès en ObstetGynaecol Can. 2008; 30(1): 44-50. PubMed | Google urologie.2008; 18: 379-389. PubMed | Google Scholar Scholar 25. Ijaiya MA, Aboyeji PA. Obstetric urogenital fistula: the Ilorin experience, Nigeria. West Afr J Med. 2004; 23: 7- 9. PubMed | Google Scholar obstetric fistula patients in rural Ethiopia.J 34. UNFPA. Campaign to end fistula. The challenge of living with fistula. 2010 ; http://www.endfistula.com/living_with_fistula.htm : Consulté le 9 Juillet 2014.Google Scholar 26. Wall LL, Karshima JA, Kirschner C, Arrowsmith SD. The obstetric vesicovaginal fistula: characteristics of 899 patients 35. Women Dignity Project, Engender Health. Risk and Resilience: from Jos, Nigeria. Am J Obstet Gynecol. 2004; 190: 1011- Obstetric Fistula in Tanzania: An overview of Findings and 1019. PubMed | Google Scholar Recommendations from the Study.2006. Tanzania; Dar es Salaam. Google Scholar 27. Turan JM, Johnson K, Polan ML. Experiences of women seeking medical care for obstetric fistula in Eritrea: Implications for 36. Chong E. Healing Wounds, Instilling Hope; the Tanzanian prevention, treatment, and social reintegration.Global Public Partnership against Obstetric Fistula. In Quality/Calidad/Qualit. Health: An International Journal for Research, Policy and 2004; New York, USA Population Council. Google Scholar Practice.2007; 2(1):64-77. PubMed | Google Scholar 37. Cook RJ, Dickens M, Syed S. Obstetric fistula: The challenge to 28. Yeakey MP, Chipeta E, Taulo F, Tsui AO. The lived experience of Malawian women with obstetric fistula. Cult Health Sex. human rights. Int J Gynecol Obstet. 2004; 87(1): 7277. PubMed | Google Scholar 2009 Jun;11(5):499-513. PubMed | Google Scholar 38. Wall LL. Preventing obstetric fistulas in low-resource countries: 29. Ahmed S, Holtz SA. Social and economic consequences of obstetric fistula: Life changed forever? Int J Gynaecol Obstet. insights from a Haddon matrix. Obstet Gynecol Surv. 2012; 67(2): 111-121. PubMed | Google Scholar 2007; 99:S10-S15. PubMed | Google Scholar 39. Mohammad RH. A community program for women's health and 30. Miller S, Lester F, Webster M, Cowan B. Obstetric fistula: a development: Implications for the long-term care of women preventable tragedy. Journal of Midwifery & Women's Health. with 2005;50(4):286-294. PubMed | Google Scholar Obstetrics. 2007 ;99:S137-S142. PubMed | Google Scholar 31. Bangser M. Obstetric fistula and stigma.The Lancet Global Health. Scholar 2006; 367(9509): 535-536. PubMed | Google fistulas. International Journal of Gynecology and 40. Mselle LT, Moland KM, Bjørg EO, Mvungi A, Thecla WK."I am nothing" experiences of loss among women suffering from severe birth injuries in Tanzania. BMC Women's Health.2011; 11: 49. PubMed | Google Scholar Page number not for citation purposes 8 41. UNFPA, Unité de recherche démographique, Ministère de la Santé Division de la Santé Familiale. Facteurs socio-culturels, conséquences psycho-sociales des fistules obstétricales au Togo et capacités de prise en charge dans les communautés « fistules - Togo / 2009 ». 2010. UNFPA. Google Scholar Tableau 1: opinions des personnes de l’entourage sur la réintégration sociale des FVFO Opinions (N= 22) n % Activité aidant la femme à accepter son statut de porteuse de fistule 4 18,2 Activité aidant la femme à se faire accepter dans la communauté 1 4,5 Activité aidant la femme à subvenir à ses besoins 2 9,1 Activité aidant la femme à mieux se sentir dans son foyer 15 68,2 N: nombre total d’observations ; n : nombre d’observations par catégorie ; % : pourcentage Tableau 2: principales barrières de la réintégration sociale des FVFO selon les personnes de l’entourage Barrières (N= 22) n % Non implication des autorités traditionnelles/religieuses 3 13,6 Absence de suivi des femmes 4 18,2 Culture/tradition/mœurs 15 68,2 N: nombre total d’observations ; n : nombre d’observations par catégorie ; % : pourcentage Tableau 3: activités suggérées par les participants en vue d’améliorer la réintégration sociale FVFO Entourage Agents de santé Total N= 28 N= 40 N= 24 N= 92 n(%) n(%) n(%) n(%) Suivi psychosocial 1(3,6) 8(20) 9(37,5) 18(19,6) Suivi sanitaire 6(21,4) 11(27,5) 8(33,3) 25(27,2) Appui financier 11(39,3) 12(30) 1(4,2) 24(26,1) Octroi des AGR 2(7,1) 4(10) 6(25) 12(13) Appui logistique 1(3,6) 0 0 1(1,1) Comités locaux de gestion 7(25) 5(12,5) 0 12(13) Activités suggérées N: nombre total d’observations ; n : nombre d’observations par catégorie ; % : pourcentage Page number not for citation purposes 9 Figure 1: répartition des niveaux d’étude des participants Page number not for citation purposes 10 Figure 2: principales appuis sollicités par les femmes victimes de fistule obstétricale Page number not for citation purposes 11 Figure 3: activité de réintégration sociale mise en œuvre dans les centres de prise en charge de la fistule obstétricale selon les agents de santé Page number not for citation purposes 12.
2,678
2012REIML005_25
French-Science-Pile
Open Science
Various open science
2,012
Planification des déplacements et développement urbain durable en Champagne-Ardenne : approche analytique des quatre principales agglomérations de la région Champagne-Ardenne
None
French
Spoken
7,985
12,527
Pour résumer, « les SCOT appellent la mise en place d’une politique territoriale (plus que locale). Ils posent aussi toute la question du « portage » de cette ou ces politiques608 ». La dimension transversale des Schémas de Cohérence Territoriaux, confortée par le contexte législatif actuel, doit permettre aux acteurs territoriaux de se positionner à l’articulation des politiques sectorielles. Sur ce point, la possibilité offerte désormais à certaines structures porteuses de SCoT de devenir compétentes en matière de transports et de mettre en œuvre, à leur échelle, des politiques dédiées, peut constituer l’une des réponses à nos questionnements posés dans l’introduction générale, du texte, même si elle semble ne pas pouvoir s’appliquer directement aux « villes intermédiaires ». En effet, la loi Grenelle a apporté une réponse à la question de l’échelle de compétences et d’actions en matière de déplacements et de transports. Or, ce n’est pas le cas des SCoT champardennais. Seules les grandes agglomérations sont concernées par cette réponse, car il a été stipulé par la loi que pour qu’un syndicat porteur du SCoT puisse avoir la compétence transport, qu’il doit comprendre deux AOTU urbains sur son territoire. Les acteurs locaux ont donc été « amenés à se saisir de la question de la planification stratégique à l’échelle des SCoT assez rapidement. Nous en sommes d’ailleurs aujourd’hui à la 2e voire à la 3e génération de SCoT avec le Grenelle 609.». La difficulté principale pour les acteurs publics en ce qui concerne la gestion des effets induits par les mobilités spatiales reste celle de leur échelle d’action et de compétence. Les moyens sont divers et peuvent être mis en œuvre à travers les plans et programmes les 607 CDAC : la Commission Départementale d’Aménagement Commercial. CDCEA : la Commission Départementale de Consommation des Espaces Agricoles. 608 Entretien avec Claudie Leitz, Chargée d’Etudes de SCoT, Agence d’Urbanisme, de Développement et d’Aménagement de la Région Troyenne (AUDART), Troyes , 18 novembre 2011. 609 Idem. 635 outils existent. Toutefois, les actions en matière de gestion territoriale, si elles peuvent être envisagées aux échelles pertinentes correspondant à celles de la mobilité (quotidienne, liée aux lieux de résidence et d’emploi), notamment à travers les Schémas de Cohérence Territoriale, trouvent rarement leur déclinaison concrète à ce niveau. Echelle de l’action publique, Quel est le bon périmètre de planification de l’action urbaine? Jusqu’où peut-on aller desservir des localités périphériques, sous quelles formes, et quels sont les critères pour un futur choix d’extension de desserte? Les avis divergent sur cette question d’échelle que nous avons posée dans l’introduction de cette recherche. Certains610 disent que c’est l’échelle de la communauté d’agglomération, d’autres trouvent que c’est l’échelle du SCoT qui est la plus pertinente. D’autres voix préconisent l’échelle de l’aire urbaine car ils la considèrent comme la plus adaptée pour permettre une meilleure prise en compte de la problématique des déplacements à l’échelle du bassin de vie, et mettent en cause les PDU. « Les bassins de population évoluent en permanence et les services administratifs sont également en retard par rapport aux besoins. Dans ces conditions, l’extension des périmètres ne suffit pas : l’intermodalité et la coopération entre autorités administratives sont indispensables.611». Il nous semble que cette réponse est assez convaincante et nous abondons dans le même sens. La complémentarité entre les différents acteurs est donc essentielle. Ainsi, nous tenons à préciser, après analyse de ces différents discours, que les AOTU peuvent étendre leur PTU au-delà de l’échelle de la communauté d’agglomération si l’aire urbaine est dense à l’instar de l’aire urbaine lyonnaise. En revanche, les AOTU devraient se contenter d’assurer la desserte au sein de la communauté d’agglomération si son aire urbaine et très peu dense, comme à titre d’exemple, les quatre aire urbaines champardennaises. 610 Entretiens avec les acteurs locaux des quatre territoires champardennais. 611 Voici un autre point de vue émis par Christophe Doucet (responsable du Service Politique des Déplacements et Accessibilité à Tisséo) suite à une question que nous lui avons posée lors de notre participation à une journée organisée par le GART, le CERTU, l’ADEME et le CNFPT « Journée d’étude nationale » le 23 septembre 2010, « Jusqu’où les AOTU peuvent-elles étendre le périmètre des transports urbains dans le cadre du PDU?». 636 La densité de l’aire urbaine joue un rôle primordial pour garantir une meilleure adaptation de l’action publique (offre) aux besoins des usagers de l’espace (demande) en matière de déplacements et de transports. La densité d’un territoire rend rentables les transports collectifs et assure par conséquent leur pérennité. Le potentiel de report modal de la route vers les transports collectifs est beaucoup plus important dans des territoires denses (les aires urbaines en l’occurrence) que dans les aires urbaines moins denses comme celles des trois agglomérations châlonnaise, carolomacérienne, et troyenne (à un degré moindre). L’adaptation de l’offre de transports collectifs aux territoires vécus (l’aire urbaine) s’annonce nécessaire, elle répond aux objectifs d’équité et de durabilité des territoires (objectifs économiques et environnementaux). Les outils dont disposent les AOT sont différemment perçus selon les contextes et les spécificités territoriales. Il est donc difficile de définir ce qu’est qu’une bonne échelle de l’action publique en matière de transport et de déplacement. Effectivement, les réponses à la question posée sur le meilleur périmètre de l’action publique sont variées car cela est lié à plusieurs logiques, aux premiers rangs desquelles la densité de la population et la compacité des territoires. Ces deux logiques sont des facteurs déterminants pour la desserte par le transport en commun, d’où la différence entre grandes villes et villes moyennes. En tout état de cause, nous pouvons dire qu’il n’y a pas, a priori, de bonne ou de mauvaise échelle de l’action, et que le partenariat conduit pendant l’élaboration du PDU et de sa mise en œuvre, est le facteur le plus déterminant dans le processus de définition du périmètre de l’action. En d’autres termes : tout dépend des engagements pris par les différents acteurs et partenaires. Finalement, si l’on se pose la question du transport, nous parlons d’espace urbain et non de limite communale. La compétence est à l’échelle de l’agglomération et les enjeux se développent à l’échelle du bassin de vie et surtout du bassin d’emploi pour les navetteurs domicile-travail. 637 La cohérence entre transport et urbanisme en Champagne -Ardenne est -elle intro uvable ? Avant de répondre à cette question à laquelle nous étions attachés tout au long de la partie II, il nous semblait indispensable de savoir si le nouveau pouvoir public (la Communauté d ’Agglomération), lié au renforcement de l’intercommunalité après 1999, a modifié la manière d’identifier les enjeux de transports collectifs (surtout après la loi SRU et la montée en puissance de la notion de développement durable). Les réflexions sur cette question nous ont conduit à nous interroger par la suite sur le rôle des transports dans le processus d’élargissement ou de renforcement de nouveaux territoires. Les enjeux de transports collectifs sont effectivement importants à l’échelle des communautés d’agglomération, autorités organisatrices des transports urbains. Les PDU sont les outils de réflexion, de coordination et de programmation privilégiés en la matière. Toutefois, on s’aperçoit aujourd’hui que les enjeux en matière de déplacements dépassent largement le cadre des agglomérations et que les réflexions doivent trouver un cadre plus large. Là, le rôle des SCoT est stratégique. Ils organisent la planification des déplacements en lien avec le modèle de développement du bassin de vie (armature territoriale). Ce qui ouvre la question d’autres relais institutionnels (syndicats mixtes de transports...). « La question ouverte est en fait celle de la relation entre un document en appui de compétences territorialisées (le PDU de l’intercommunalité et de son périmètre de transports urbains) et le besoin d’appréhender la dynamique d’un territoire sous l’angle du transport, de l’intermodalité, enjeu du développement durable 612». Il s’agit de dépasser l’échelle territoriale de compétences au sens strict et passer à une échelle dynamique d’action. Notre analyse du lien entre l’intercommunalité et la planification de transport à l’échelle champardennaise a fait émerger des résultats variés tant du point de vue institutionnel que sur le plan aménagiste. 612 Entretien avec Patric Dal Cin, Grand Troyes, novembre 2011. 638 Plan institutionnel En ce qui concerne le lien entre les acteurs des transports à plusieurs échelles (urbaine et interurbaine) a globalement montré une faible complémentarité. Nous avons pu en effet constater qu’à part l’action innovante en ce qui concerne la tarification intégrée entre TER et réseau de TCU sur le territoire de l’agglomération carolomacérienne, où il est possible de voyager sur le réseau TER ferré à l’intérieur du PTU de la Communauté d’Agglomération Carolomacérienne avec le même titre de transports urbains, il n’existe pas d’actions semblables dans les trois autres agglomérations champardennaises. Aussi, il s’est avéré qu’à part le timide exemple de la création d’un syndicat mixte de transports en commun entre Reims et le Conseil Général de la Marne, il n’existe aucune autre association de ce genre à l’échelle de la région Champagne-Ardenne. Or, la mise en place d’un syndicat mixte de transports entre un groupement de communes (SIVOM, district, Communauté de Communes, Communauté d’Agglomération) et le Conseil général concerné, pourrait faire face au manque de coordination et à la désarticulation entre les lignes urbaines et suburbaines de transport en commun 613. La mise en place d’un syndicat mixte version SRU pourrait être considérée comme ressource additionnelle au budget de l’intercommunalité dans un temps où le financement des réseaux de transport collectif est de plus en plus problématique. Il a été constaté, après avoir analysé ces quatre trajectoires, qu’à l’exception du Grand Troyes, la question de transport n’était pas au cœur du processus du développement intercommunal. En d’autres termes, ce n’est pas le transport qui a favorisé l’adhésion de nouvelles communes. Ce sont bien la question de l’assainissement et du développement économique qui ont joué ce rôle incitatif à la coopération intercommunale. 613 L’exemple caennais est assez intéressant et représente une situation très différente des cas champardennais du fait que les acteurs locaux ont opté pour une gestion sectorielle des transports publics sous forme de syndicat mixte613. En effet, dès 1977, dix-sept communes se sont associées au département au sein d’un syndicat mixte de transports (urbain et interurbain). Ce qui est important à souligner, c’est qu’un district a été créé en 1990 sur le même périmètre que le syndicat mixte, et que sa création a été le résultat d’une réflexion entamée autour de la révision du Schéma directeur. Cela rejoint en effet notre réflexion sur la réponse à la question « quelle est la meilleure échelle de l’action publique face à la mobilité ». Certes, l’échelle du territoire du SCoT semble pertinente, mais à condition qu’il soit suffisamment dense (le SCoT) pour assurer une certaine rentabilité des transports publics au service de la population. 639 Comme nous l’avons déjà vu, le cas troyen est le plus intéressant (sur ce point) dans la mesure où le lien entre le développement du territoire intercommunal et l’extension du PTU se faisait en parallèle 614. Chaque commune qui adhérait au Grand Troyes (GT), elle était systématiquement desservie par le TCU. Le souhait de la commune de Saint-Germain d’être desservie par le TCU reflète de manière très flagrante le rôle joué par le transport pour renforcer l’intercommunalité. Cet exemple est le seul de ce genre en Champagne-Ardenne. Le cas de l’agglomération rémoise est spécifique. On ne peut pas dire que c’est le transport (ou une autre question) qui a été le facteur majeur du développement intercommunal car Reims Métropole n’a pas changé de périmètre depuis la création du District en 1964. Il a fallu attendre jusqu’en décembre 2011 pour que les frontières de l’agglomération commencent à se déplacer virtuellement sur la carte sans que Reims Métropole réussisse à faire partager sa vision. En effet, le nouveau schéma de coopération intercommunale a été adopté par la commission départementale de coopération intercommunale le 15 décembre 2011. Certes, la communauté d’agglomération deviendra « plus grande qu’aujourd’hui615 » mais « reste plus petite qu’espérée ». Nous rappelons que le projet d’agrandissement de l’agglomération rémoise concerne dix communes supplémentaires (soit 16 au total). En analysant l’extension du périmètre intercommunal actuelle et celle du futur dans le Grand Troyes, nous pouvons dire qu’il y a un décalage ou une inadéquation, en ce qui concerne la question du transport, avec la réalité et avec le territoire vécu. Comment on peut comprendre la desserte des communes pavillonnaires peu denses (dans le Sud du territoire du GT), alors que des communes plus denses et plus importantes avec des zones d’activités (au nord du GT) sont toujours hors de la communauté d’agglomération troyenne. Certaines de ces communes (hors GT) sont desservies par le TCU troyen sans qu’un syndicat mixte soit mis en place616. 614 L’évolution du PTU était remarquable (en comparaison avec les trois autres cas) : 11 communes en 1966, 12 en 2009, 14-17 en 2011-2012. Les logiques présidant à ces dynamiques spatiales pourraient être expliquées comme suivant : Création du SIVOMAT (1966). Enjeu de la desserte en TC (2009 : pour la commune de SaintGermain). Poursuite de la montée en puissance de l’agglomération et de la création de la CA (à partir de 2011) 615 Le magazine de Reims Métropole, n° 124, décembre 2011/janvier 2012, p 24. 616 Il s’agit d’une simple convention, les deux communes (hors GT) desservies ne payent pas de VT. 640 A Reims, là encore, le projet d’élargissement proposé ne correspond pas à la réalité du territoire ni à ses futures ambitions. En effet, on s’aperçoit que l’on a proposé d’agrandir le périmètre de l’intercommunalité, là où ça n’a aucune incidence sur le réseau de transport 617. Thillois (elle fait partie de la communauté de communes de Champagne-Vesle), qui a été récemment desservie par une ligne du réseau de TCU suite à la création d’un SM type SRU, reste toujours hors de Reims Métropole (voir figure 84, p 366). Pareillement, la commune de Vitry-les-Reims où des perspectives de poursuite de l’urbanisation vers le Nord, du fait du départ de la base aérienne 112, représentent un enjeu fort du développement de la région urbaine rémoise, ne fera pas non plus partie de Reims Métropole élargie. En revanche, les communes de Villers-aux-Nœuds, de Prunay et de Champigny (trois communes fort modestes) qui adhéreront à Reims Métropole, ne vont pas révolutionner l’araignée du transport en commun rémois. La communauté de communes de ChampagneVesle (Ouest) a donc continué à faire de la résistance (seule la commune de Champigny a cédé). Pour répondre à la question que nous avons posée lors de l’analyse du cas rémois sur le rôle qui pourrait jouer le transport en faveur de renforcement de la coopération intercommunale, nous pouvons dire ce n’est pas le cas. Ni la mise en place du tramway rémois, ni les réflexions sur la possibilité de créer un axe lourd de TCSP (Est-ouest), ont persuadé la commune de Thillois d’intégrer Reims Métropole. A Châlons-en-Champagne comme à Charleville-Mézières, la question du transport ne constitue pas un enjeu fédérateur. La Communauté d’Agglomération de Châlons-enChampagne stipule l’acceptation des communes souhaitant intégrer la CAC de ne pas être desservies par le TC. 617 La future extension de l’intercommunalité vers les deux communes de Taissy et de Sillery (deux communes qui représentent un stock de population qui n’est pas ridicule), pourrait être considérée comme positive dans la mesure où une ligne de transport en commune serait envisageable. De plus, la commune de Champfleury (Sud) possède une zone d’activités importante, sa desserte par le TC serait donc envisageable. 641 Le plan de l’aménagement. Actions publiques face aux enjeux de la mobilité durable Reims et les trois villes de taille moyenne dont les contextes ont été analysés en détaille, ont conçu différemment la question du transport urbain durable ainsi que le lien entre transport et aménagement de l’espace public pour favoriser un développement urbain durable. Si Reims, en ce qui concerne les modes de transports classiques, a mis en place un tramway et a aménagé l’espace urbain autour de ce système de transport, CharlevilleMézières s’est lancée dans un projet de BHNS moins coûteux et plus adapté à sa taille de ville moyenne. Le projet du BHNS troyen, inscrit dans le Schéma directeur de 1999, a avorté, et le SCoT de 2011 l’a totalement ignoré. L’agglomération troyenne s’est contentée du fonctionnement global de son réseau de TCU, et elle n’est pas vraiment confrontée aux problèmes de congestion (sauf aux heures de pointe). Sans le laisser à l’abandon, Châlonsen-Champagne n’a pas classé le transport dans ses priorités. Cette problématique ne s’y pose pas vraiment. Le cas carolomacérien est le plus intéressant ici. La CA Cœur d'Ardenne, agglomération de taille moyenne dont le nombre d’habitants est inférieur au seuil de 100 000 habitants, a mis en place un PDU (facultatif). Cela montre en effet la forte volonté politique au sein de l’agglomération. Aussi, Charleville-Mézières est la première qui a réaménagé son pôle multimodal. Ce dernier est exemplaire ; il dépasse, de notre point de vue, celui de Reims en perfectionnement dans la mesure où les connections cyclables vers le gare et les range-vélos sur le parvis de la gare sont mieux pensées. De plus, la gare routière est intégrée à la gare SNCF, ce n’est pas le cas à Reims, cela donne plus de visibilité et renforce davantage l’intermodalité. A cela s’ajoute son projet de « Métro-bus » qui verrait le jour en 2016 et qui a pour ambition de décongestionner l’axe central de l’agglomération, de diminuer la pollution et d’améliorer l’accessibilité et le cadre de vie. Tous ces éléments font de l’agglomération carolomacérienne un exemple à suivre au moins à l’échelle régionale (pour Troyes et Châlons). Le tramway rémois que nous avons pu analyser auparavant peut se lire, a priori, positivement dans la mesure où la zone de Bezannes a été desservie par ce mode lourd de 642 TCSP tout en étant vide. Il peut se lire négativement dans le sens où le tramway n’arrive pas jusqu’à la gare de TGV qui se trouve à quelques centaines de mètres du terminus du tramway (voir figure 83, p. 363). Nous rappelons que le tramway a refait la l’agglomération rémoise (Reims et Bezannes). La qualité de l’espace public a été nettement améliorée tout comme le cadre de vie. Cette opération d’envergure était très timidement accompagnée par une mise en place d’un réseau cyclable visible. La nature discontinue des pistes cyclables reste à améliorer. En réaménageant leur pôle gare multimodal, Reims et Charleville-Mézières ont considérablement amélioré l’accessibilité (voir la page de garde en ce qui concerne Charleville-Mézières), la sécurité (accès direct au centre-ville) et la visibilité. Troyes et Châlons-en-Champagne n’ont pas conduit d’actions de telle ampleur. Troyes, compte tenu d’important nombre d’habitants et de densité élevée, devrait sérieusement réfléchir à la création d’une ligne de TCSP sur sa partie centrale. Son projet de Pôle d’Echanges Intermodal n’a toujours pas vu le jour une dizaine d’années après études. Châlons-en-Champagne a demandé au futur délégataire de penser à une éventuelle intégration d’un projet de TCSP. Son pôle gare multimodal, compte tenu de son état assez dégradé en terme d’accessibilité, de qualité d’espace, de visibilité et de convivialité, nécessite une requalification rapide. Les techniciens et les chargés d’ es d’urbanisme et de déplacements à la Communauté d’Agglomération Châlonnaise (la CAC) se sont rendus à Charleville-Mézières pour s’inspirer du parfait aménagement de son pôle multi et intermodal. L’insertion des haltes ferroviaires à l’échelle de l’agglomération doit être conçue comme étant un élément favorisant le développement urbain durable. « Il ne s’agit plus de d’accueillir le mouvement dans l’espace hérité de la ville historique mais bien de ménager des lieux d’urbanité dans l’espace indifférencié des métropoles contemporains, produit d’une mobilité croissante618.». Reims, comme cela était détaillé dans le chapitre 3, a mis en place, 618 [Lerup, 2001], via Antoine Bres, 2008, L’urbain, une halte plus ou moins étendue et complexe, Certu, pp146167.Un article de l’ouvrage La mobilité qui fait la ville Actes des 3e rencontres internationales en Urbanisme de l’Institut d’ Urbanisme de Grenoble , sous la direction de Yves Chalas et Florence Paulhiac , novembre 2008, CERTU, 326 p . 643 septembre 2009, la halte de Franchet d'Esperey. D’une insertion paysagère parfaite avec des mobiliers urbains de qualité, sa création a bel et bien renforcé l’intermodalité (TER, tramway, bus). Mais il est regrettable de ne pas donner d’importance au vélo et à sa place (pas de range-vélos). Le rôle que pourraient jouer les haltes ferroviaires au regard de la problématique périurbaine est assez important. Ces portes d’entrée de la ville (les haltes), peuvent recevoir les passagers de TER venant des communes de l’aire urbaine de la ville centre avant d’enchaîner avec d’autres modes de transport urbain routier ou ferré. Le potentiel rémois est assez considérable et faudrait saisir la chance d’avoir un réseau développé pour diminuer la part de la voiture particulière. De ce fait, nous avons proposé (voir annexe 7) de rendre plus performant le réseau urbain en créant de s haltes619. L’aire urbaine châlonnaise si peu dense et la future extension disproportionnée du périmètre de l’agglomération châlonnaise, ne laisse pas beaucoup de choix aux acteurs locaux s’ils veulent augmenter la part modale du transport en commun. Surtout que la communauté d’agglomération châlonnaise devra gérer le transport scolaire, alors assuré par le Conseil Général, sur ce grand territoire. Nous avion proposé à la fin du chapitre 5 le projet du T'rimBaUS, Ce dernier pourrait être adaptable à d’autres agglomérations dans la région. Nous pensons au cas châlonnais dont le contexte est, sur certains points, semblable à celui de Charleville-Mézières (territoire vaste et très peu dense). Un autre facteur permettant de réfléchir dans ce sens, est celui de la présence d’un réseau ferré (à trois branches) au sein du grand territoire châlonnais. En revanche, le territoire troyen est moins propice pour recevoir un système du même genre pour deux raisons : d’abord, le grand territoire troyen est plus dense et beaucoup moins éclaté ; secundo, il est structuré autour d’un unique axe ferré (Nord-ouest et Sud-est). Il s’agit, certes, d’un territoire moins propice à la mise en œuvre d’un tel projet, mais l’idée est 619 Une halte sur la ligne ferrée vers Laon (et prolonger la ligne du tramway jusqu’à la ligne ferroviaire). Une halte sur la branche de Fismes (Ouest) afin de relier Fismes au Nord-ouest de l’agglomération rémoise (zones en développement avec un potentiel important), au centre ville, et à la zone industrielle de Croix-Blandin (où une autre : halte Benne Farman, serait créée). 644 toujours applicable sur cet axe principal entre Verrières (11 kilomètres Sud-est) et SaintLyé (9,3 km au Nord-ouest), à titre d’exemple. Les offres intermédiaires de transports, ou les Nouveaux services à la mobilité (NSM), qui sont des solutions plus adaptées à des villes et agglomérations de taille moyenne, sont encore dissemblablement conçues par les quatre AOTU. Mais globalement, elles sont très peu appliquées. Nous pouvons dire que la place du vélo reste toujours faible, ce qui est contradictoire aux contextes analysés (à l’exception de Charleville-Mézières). En effet, Reims, Troyes et Châlons-en-Champagne sont des villes plates ou presque et denses, contrairement à Charleville-Mézières dont la topographie représente un véritable frein à l’usage du vélo. En revanche, la part de la marche à pied dans le centre rémois et troyen est assez élevée comme nous l’avons déjà. La place modeste du vélo au sein de la chaîne des déplacements pourrait être expliquée par plusieurs raisons au premier rang desquelles se trouvent la mentalité dépendante de la voiture et la faiblesse en termes d’aménagements cyclables dédiés à cet égard. A cela s’joute la volonté des hommes politiques et de leur sensibilisation à la question de l’écomobilité. Aucun projet de Vélo en Libre Service ou de vélo en location n’existe dans les quatre cas analysés. En revanche, seule la ville de Troyes a un projet de vélo station, ce dernier est en phase d’étude. Dans le cadre du rôle de conseil en mobilité du Grand Troyes (GT) et de Reims Métropole, les chargées de mission mobilité dans les deux villes doivent relancer le développement des pédibus auprès des communes. Deux lignes régulières, suivies et soutenues par le GT, existent sur son territoire, tandis que des essaies timides et non durables ont été recensés à Reims Métropole. Une telle démarche nécessite un engagement fort et continu de la part des collectivités, des parents d’élèves et des équipements scolaires. Le soutien financier, logistique et de communication des collectivités, est indispensable. De manière générale, nous constatons que la mise en place de politiques de déplacements coordonnées avec un urbanisme durable n’est pas une mission facile pour les AOT surtout dans ce contexte où la mobilité en voiture particulière reste dominante. L’idée est de ne pas supprimer l’usage de cette dernière, surtout avec une image très peu 645 attractive des transports en commun, mais d’essayer de le minimiser par des actes volontaristes et aménagistes à l’échelle urbaine et périurbaine. Comment peut-on demander à un habitant de Witry-les-Reims, qui se trouve à une dizaine de kilomètres à l’est de Reims, d’abandonner sa voiture s’il met une heure en transport en commun pour se rendre à son travail à Reims et en changeant plusieurs fois de mode avec un temps d’attente plus ou moins important, alors que ce trajet se fait en dix minutes en voiture? En revanche, demander à l’AOT d’étendre son périmètre de desserte dans les zones périphériques peu denses se confronte à la question de la rentabilité qui représente un véritable frein. La coordination entre transport et urbanisme du point de vue institutionnel entre plusieurs politiques est la clé de réussite de la mise en place de tout projet urbain. Or, cette coordination est novatrice en France et est encore peu mise en œuvre dans les villes de taille moyenne, par rapport aux villes suisses (alémaniques) et allemandes où la desserte en transport en commun lourd est l’élément capital à prendre en compte lors de la création d’une nouvelle zone et qui conditionne d’ailleurs l’implantation de ces nouvelles opérations. En effet, en France, l’accent a été mis sur le lien transport-urbanisme après la loi SRU en 2000 et le passage du Schéma Directeur au SCoT, donc à une période assez récente. Alors que le SCoT de la région urbaine de Châlons-en-Champagne est en cours d’élaboration (prévu pour 2013), celui de la région de Reims a été approuvé en 2007. Tandis que les deux SCoT de Charleville-Mézières et de Troyes viennent d’être approuvés ; novembre 2010 pour le premier et juillet 2011 pour le deuxième, ce qui est relativement récent et l’évaluation de l’évolution de ce lien s’annonce difficile car il est trop tôt pour juger. En revanche, le point positif dans le cas rémois réside dans le fait que le SCoT et le PDU ont été approuvés en même temps ce qui permettrait une coordination des différentes stratégies. Le SCoT de Charleville-Mézières et celui de Troyes sont en cours d’approbation et cela est prévu pour début 2011. Le SCoT châlonnais qui devait être approuvé en décembre 2010 ne le serait qu’en 2013. Loin de la culture et des pratiques de la planification urbaine en Allemagne et en Suisse, celles des quatre cas en Champagne-Ardenne sont fortement influencées par les dogmes d’aménagement national du territoire des années 1960, avec des déterminants locaux 646 spécifiques à chaque cas. En effet, les doctrines sous-tendant le modèle de la croissance urbaine déconcentrée et le développement urbain autour de zones périphériques, prévalaient. La densification et l’incitation à faire la ville sur elle-même ne se sont inscrites que récemment dans les documents issus de nouvelles lois. De plus, certaines régions urbaines viennent d’avoir leur SCoT approuvé. La cohérence entre transport et urbanisme reste donc théorique dans ces cas là. « Les Allemands n’hésitent pas à créer des lignes de transport avant l’urbanisation. Mais c’est une révolution culturelle, et à mon avis c’est un pas qu’on ne franchira jamais ici620.», a précisé Jacqueline Tribillon (responsable du service de la planification urbaine, Communauté Urbaine de Strasbourg) lors d’un entretien effectué par Caroline Gallez dans le cadre de ses travaux de recherche sur le lien entre transport et urbanisme à Strasbourg. Gallez a cité l’exemple de la ville allemande de Karlsruhe et a montré que le développement des transports publics a bel et bien précédé l’urbanisation. Nous avons tendance à dire que, sans être totalement d’accord avec «la réalité ou le pessimisme» qui émane des paroles de Jacqueline Tribillon, l’amarrage entre transport et urbanisme dans, non seulement les villes champardennaises mais également françaises de manière plus globale, est difficilement trouvable à l’exception de quelques exemples pris après la loi SRU de 2000. 620 Citation parue en note de bas de page dans son travail de recherche « Strasbourg et le modèle urbain rhénan » de l’ouvrage Mythes et pratiques de la coordination urbanisme-transport, Regards croisés sur quatre agglomérations suisses et françaises, INRETS, mai 2010, p58, 647 648 Tables 649 650 Table des figure s Figure 1 : Organisation de la première partie autour des mots et des notions clés............................ 35 Figure 2 : Schéma montrant l’interface entre ville et mobilité,.......................................................... 46 Figure 3 : Les travaux dans la rue de la République à Lyon pour la mise en place du métro A............ 56 Figure 4 : Schéma montrant les mesures, les raisonnements et les actions des politiques villetransports......................................................................................................................................... 58 Figure 5 : Nombre de voyageurs transportés en province entre 1961 et 1987 par an (en milliards)... 68 Figure 6 : Schéma montrant l’arsenal législatif el les principales lois par lesquelles les déplacements sont concernés directement ou indirectement.................................................................................. 84 Figure 7 : Les outils de planification des transports à l’échelle des agglomérations autour des lois de (LOADDT, Chevènement, SRU).......................................................................................................... 89 Figure 8 : Evolution du statut des AOTU entre 1998 et 2002.............................................................. 97 Figure 9 : Schéma expliquant le Grenelle de l’Environnement......................................................... 100 Figure 10 : Les répartitions des conseils en mobilité à l’échelle nationale en 2009 (département)... 127 Figure 11 : La localisation des différentes activités et la composition spatio-temporelle appliqué à une ligne de transport en commun, deux cas......................................................................................... 140 Figure 12 : La place des innovations en matière de transport urbain et d’aménagement de l’espace. ....................................................... ................................................ ................................ ................ 159 Figure 13 : Le vélo à Amsterdam, à droite : un parking à vélo à trois niveaux................................... 162 Figure 14 : L’intermodalité bateau/vélo à Amsterdam..................................................................... 162 Figure 15 : Concevoir autrement le développement urbain . ( Plurifonctionnalité des usages, convivialité, une meilleure qualité de vie, ville à courte distance, etc. ) ............................................ 171 Figure 16 : Les principales étapes de l’intercommunalité dans l’agglomération rennaise................. 180 Figure 17 : Le nombre des tramways dans les villes françaises........................................................ 186 Figure 18 : la station « tube » de Curitiba à quai haut et à portes palières....................................... 188 Figure 19 : TransMilenio et site propre ; à gauche : le site propre intégral occupe 2*2 au centre, à droite : le site propre occupe une voie et n’est pas au centre.......................................................... 190 Figure 20 : Le BHNS en France (état : en service et en projet + longueur en km).............................. 194 Figure 21 : Schéma expliquant la logique de Bahn.Ville................................................................... 209 Figure 22 : Impacts du projet Bahn.Ville.......................................................................................... 210 Figure 23 : L’étoile ferroviaire stéphanoise (4 branches), schéma d’organisation à l’échelle de l’agglomération,.............................................................................................................................. 213 Figure 24 : Le site industriel de l’Ondaine découpé en 3 secteurs.................................................... 216 Figure 25 : A gauche, l’importance de la connexion pédestre avec la gare (rayon pédestre), à droite le facteur distance-temps (une zone d’influence, distance de 5 minutes à pied dans le secteur A)...... 216 Figure 26 : Les villes moyennes à l’échelle nationale....................................................................... 224 Figure 27 : Peuplement et dépeuplement en Champagne-Ardenne (arrondissements)................... 233 Figure 28 : Les infrastructures routières et autoroutières en Champagne-Ardenne......................... 235 Figure 29 : Le réseau ferroviaire en Champagne-Ardenne (lignes, et points d’arrêts ferroviaires).... 237 Figure 30 : Evolution de la population au sein de l’agglomération rémoise entre 1990-1999).......... 245 Figure 31 : La répartition de la population sur Reims Métropole et sur le SCoT 2R........................... 247 Figure 32 : La densité de la population dans la Marne en 2006........................................................ 249 Figure 33 : Zoom sur la densité à l’échelle de l’agglomération rémoise en 2006.............................. 249 651 Figure 34 : Les périmètres du schéma directeur, de l’aire urbaine rémoise (1990 et 1999).............. 250 Figure 35 : Évolution de la population de l’aire urbaine depuis 1968............................................... 251 Figure 36 : Evolution de la densité dans l'aire urbaine de Reims entre 1968 et 2008....................... 252 Figure 37 : Les navettes domicile-travail de personnes occupant un EMS entre les aires urbaines à 50km de Reims............................................................................................................................... 254 Figure 38 : Les six corridors d’infrastructures convergeant vers Reims Métropole........................... 255 Figure 39 : L’ossature des deux réseaux routier et ferroviaire......................................................... 257 Figure 40 : Le périmètre d’étude du PDU de 2001........................................................................... 259 Figure 41 : Le périmètre de l’EMD de 2006...................................................................................... 260 Figure 42 : Répartition modale des résidents du centre ville (en%).................................................. 263 Figure 43 : La répartition modale dans l’agglomération rémoise (Reims Métropole)....................... 263 Figure 44 : La ré partition modale dans la périphérie rémoise .......................................................... 263 Figure 45 : La répartition modale dans le périurbain rémois............................................................ 263 Figure 46 : Les lignes de l’ancien tramway rémois........................................................................... 268 Figure 47 : Evolution du trafic des transports urbains...................................................................... 273 Figure 48 : Evolution du nombre de km parcourus.......................................................................... 273 Figure 49 : Le réseau du transport en commun urbain rémois dans les années 1970....................... 274 Figure 50 : Le Réseau TUR, 2007..................................................................................................... 277 Figure 51 : La fin des travaux du tramway au niveau de la gare-centre............................................ 279 Figure 52 : La nouvelle carte de transport de l’agglomération rémoise (à gauche), le dernier titre de transport (2003-2011) qui a été remplacé par la nouvelle carte (à droite). Celui du milieu est un peu plus ancien (1989-2002).................................................................................................................. 281 Figure 53 : Les différents logos commerciaux des TCU de Reims. Logo TUR 1989-2002 (à droite), logo TUR 2002-2011 (au milieu), logo des TCU de RM à partir du 18 avril 2011....................................... 281 Figure 54 : Le nouveau réseau du TCU rémois................................................................................. 283 Figure 55 : L'organisation du contrat de concession entre RM et MARS........................................... 286 Figure 56 : Les origines de Reims..................................................................................................... 287 Figure 57 : Evolution de Reims médiévale....................................................................................... 287 Figure 58 : Reims, l’impact de la révolution industrielle sur l’urbanisation....................................... 288 Figure 59 : Phase n°4 du projet de la requalification de l'A4 au centre de Reims.............................. 292 Figure 60 : Un demi-siècle d’extension (1945-2000)........................................................................ 295 Figure 61 : L’urbanisation dans la deuxième moitié du XXe siècle.................................................... 296 Figure 62 : L’évolution du statut du groupement communal rémois du District à RM...................... 299 Figure 63 : Le Schéma Directeur d'Aménagement et d'Urbanisme (SDAU) de 1975. Le principe de l’extension : (Schéma éclaté)........................................................................................................... ....................................................................................................................................................... 318 Figure 70 : Carte synthétisant les actions du PDU réalisées entre 2001 et 2005............................... 323 652 Figure 71 : Le concept multimodal du PDU rémois révisé................................................................ 324 Figure 72 : Le changement de statut de l'agglomération rémoise.................................................... 335 Figure 73 : Intercommunalité et transport, Reims Métropole.......................................................... 339 Figure 74 : La localisation de la gare-halte Franchet d'Esperey, ainsi que des autres points ferrés à l’échelle de Reims Métropole.......................................................................................................... 341 Figure 75 : La halte ferroviaire Franchet d'Esperey : avant, pendant et après les travaux du tramway. ................................ ................ ....... ................................................ ................ ................................ 342 Figure 76 : Le tracé du tramway rémois, et la prolongation de la ligne B jusqu’à Neufchâtel depuis septembre 2011.............................................................................................................................. 350 Figure 77 : L’APS en centre ville et alimentation traditionnelle en dehors du centre. Couleurs vivantes pour une ville grise......................................................................................................................... 352 Figure 78 : Aménagement de l’espace urbain et tramway : cadre de vie irréprochable, accessibilité (PMR et autres), mobiliers urbains de qualité.................................................................................. 355 Figure 79 : Le parvis aménagé de la gare centrale. Au fond, le square Colbert................................. 356 Figure 80 : Le parvis de la gare intermodale centrale : accessibilité, visibilité et praticité................. 356 Figure 81 : Transport et urbanisation : densification le long du tracé de tramway........................... 358 Figure 82 : Le parking de la faculté de Droit et Lettre, rempli de voitures, six mois après la mise en place du tramway........................................................................................................................... 359 Figure 83 : Le terminus sud du tramway et la gare TGV de Bezannes............................................... 363 Figure 84 : La nouvelle configuration intercommunale de l’agglomération rémoise qui rentrerait en fonctionnement en 2013 ou 2014................................................................................................... 366 Figure 85 : Troyes, environnement, urbanisme et urbanisation....................................................... 371 Figure 86 : Evolution de l’urbanisation et organisation de l’agglomération troyenne....................... 374 Figure 87 : Occupation du sol et infrastructures routières et autoroutières, territoire du SCoT........ 375 Figure 88 : Communauté d’agglomération troyenne, SCoT et aire d’attraction................................ 375 Figure 89 : Réseau TER (ferré et routier) à l’échelle du Grand Troyes............................................... 377 Figure 90 : Transports interurbains de la région troyenne............................................................... 378 Figure 91 : Répartition de tous les voyageurs sur la ligne TransChampagneArdenne en 2007.......... 379 Figure 92 : Evolution de la population entre 1999 et 2006............................................................... 380 Figure 93 : Les navettes domicile-travail en 2004, évolution par rapport à 1999.............................. 383 Figure 94 : Temps d’accès à la rocade de contournement de l’agglomération troyenne.................. 384 Figure 95 : Parts de marché des modes de transport. Comparaison entre plusieurs agglomérations françaises....................................................................................................................................... 385 Figure 96 : Taux de motorisation par personne à l’échelle de la CAT............................................... 385 Figure 97 : Nombre de voyages (milliers) et offre en Km (milliers) à l’échelle de la CAT entre 2000 et 2007............................................................................................................................................... 386 Figure 98 : Taux d’utilisation (voyages/km)..................................................................................... 386 Figure 99 : Offre (km/habitant)....................................................................................................... ....................................................... ................ ................ ................ ................................ ................ 410 Figure 113 : Le volet territorial et urbain du PADD du SCoT. (Zones d’équilibre pour réduire les déplacements vers le pôle urbain troyen)....................................................................................... 412 Figure 114 : Préconisation du SCoT, infrastructures et grandes liaisons........................................... 412 Figure 115 : Déplacements et mobilité dans le SCoT........................................................................ 414 Figure 116 : Schéma Directeur d’Itinéraires Cyclables de l’agglomération troyenne........................ 419 Figure 117 : Etapes de mise en œuvre du PDIE troyen..................................................................... 422 Figure 118 : Le changement de statut de l'agglomération troyenne................................................ 427 Figure 119 : Principale étapes de l’agglomération troyenne. Source : réalisation de François Mathonnet et d’Ali Hasan, novembre 2011..................................................................................... 431 Figure 120 : La participation du TCU à l’ménagement de l’espace et à l’accessibilité....................... 434 Figure 121 : La séparation de la gare du centre ville par l’avenue Pasteur (rupture physique majeure)....................................................................................................................................................... 436 Figure 122 : Vue d’ensemble du quartier de la gare de Troyes......................................................... 436 Figure 123 : La faible lisibilité depuis la gare vers les arrêts de transports urbains en commun (trait noir sur la figure)............................................................................................................................ 437 Figure 124 : La place devant la gare SNCF (centrale) de Troyes. La place importante de la voiture et la faible lisibilité des itinéraires piétons.............................................................................................. 437 Figure 125 : L’espace devant la gare de Troyes, manque de convivialité et de vie (faible qualité de l’espace public et des cheminements)............................................................................................. 438 Figure 126 : La place devant la gare. Manque de visibilité pour le transport en commun................. 438 Figure 127 : Les range-vélos sur le trottoir de droite en sortant de la gare de Troyes. Nombre insuffisant et sécurité fragile........................................................................................................... 438 Figure 128 : Proposition d’une desserte ferrée à l’échelle du territoire du GT et du SCoT................ 441 Figure 129 : Charleville et Mézières, plan de 1858........................................................................... 449 Figure 130 : Charleville et Mézières, plan de 1925........................................................................... 451 Figure 131 : La configuration spatiale de l’agglomération de Charleville-Mézières........................... 453 Figure 132 : Population sur le territoire du SCoT, évolution de la population entre 1990 et 1999.... 456 Figure 133 : La densité de la population dans le département des Ardennes en 1999 et le « Y » ardennais........................................................................................................................................ 457 Figure 134 : L’extension de la tache urbaine entre deux époques : SDAU et SCoT (1972-2000)........ 459 Figure 135 : Activités, rivières et infrastructures de transport sur le territoire du SCoT carolomacérien. ....................................................................................................................................................... 460 Figure 136 : Infrastructures de transport local en 2005................................................................... 462 654 Figure 137 : Un panneau montrant l’hostilité de Warcq à la CACM (après son intégration en 2005) 471 Figure 138 : L’évolution du périmètre entre SDAU et SCoT.............................................................. 473 Figure 139 : Le fonctionnement et le financement du réseau des transports urbains carolomacériens. ....................................................................................................................................... ................ 489 Figure 140 : Plan du réseau urbain TAC actuel, (année 2008-2009)................................................. 491 Figure 141 : Le tracé de la ligne 5.................................................................................................... 493 Figure 142 : L’axe principal Nord-sud emprunté par le transport en commun avec ses deux ponts. 495 Figure 143 : Plan du réseau TAC entre 1996 et fin 2004................................................................... 497 Figure 144 : Plan du réseau TAC en 2005 (à la fin de la Délégation de service public des transports urbains de 2001)............................................................................................................................. 498 Figure 145 : Plan du réseau TAC en 2006 (plan mis en œuvre à l’occasion de la nouvelle Délégation de service public des transports urbains, août 2006)............................................................................ 499 Figure 146 : Principes de restructuration du réseau de bus............................................................. 500 Figure 147 : L’évolution de l’offre du réseau entre 2006 et 2009 (nombre de km annuels commerciaux par ligne)................................................................................................................... 501 Figure 148 :L’évolution de l’usage global du réseau (nombre de voyageurs annuels) entre 2006 et 2009............................................................................................................................................... 502 Figure 149 : L’évolution de l’offre globale du réseau (nombre de km commerciaux annuels) entre 2006 et 2009)................................................................................................................................. 502 Figure 150 : Réseau TER (ferré et routier) à l’échelle de Charleville-Mézières.................................. 507 Figure 151 : Intercommunalité et transport. La communauté d ’Agglomération de Charleville-Mézières (CACM)........................................................................................................................................... 511 Figure 152 : Vue aérienne montrant la gare et son parvis (la place importante de la voiture), le Square et le futur pôle tertiaire (rouge dégradée)....................................................................................... 515 Figure 153 : Projet du quartier de la gare........................................................................................ 515 Figure 154 : La place de la gare de Charleville-Mézières, avant et pendant les travaux d’aménagement du pôle intermodal......................................................................................................................... 516 Figure 155 : Le projet du pôle multimodal réalisé............................................................................ 517 Figure 156 : Le pôle intermodal de la gare-centre après son aménagement en mai 2011............... 518 Figure 157 : Les trois places : Métropolis, Ducale et de l’Agriculture................................................ 519 Figure 158 : La place Ducale avant son aménagement, une place envahie par las voitures.............. 520 Figure 159 : La place Ducale après son aménagement le 1er mars 2009........................................... 521 Figure 160 : La place de l’Agriculture à Charleville, une place pleine de voitures............................. 522 Figure 161 : La voie rapide, l’axe Nord-sud du BHNS et le futur tracé de la branche ouest de l’Y ardennais........................................................................................................................................ ....................................................... ................................................ ................................................ 557 Figure 176 : La répartition de la population dans le territoire du SCoT de la région de Châlons-enChampagne..................................................................................................................................... 558 Figure 177 : Périmètre du SCoT de la région de Châlons-en-Champagne......................................... 560 Figure 178 : Les principaux déplacements depuis et vers l’agglomération châlonnaise en 2004....... 561 Figure 179 : Part des salariés de la commune travaillant dans le pôle d’emplois (unité urbaine)...... 562 Figure 180 : Une commun auté d ’agglomération ne disposant pas d’un espace péri-urbain à proportion de l’importance de sa ville centre.................................................................................. 562 Figure 181 : La part de la desserte ferroviaire dans l’ensemble des déplacements domicile-travail de Châlons-en-Champagne vers Reims en 2006................................................................................... 569 Figure 182 : la place importante de l’automobile au cœur de la ville de Châlons-en-Champagne..... 575 Figure 183 : L’amélioration de l’accessibilité du territoire châlonnais.............................................. 582 Figure 184 : Le réseau de transports en commun de la CAC, 2007................................................... 588 Figure 185 : L’évolution de la fréquentation du réseau de bus châlonnais entre 1972 et 2009......... 592 Figure 186 : L’évolution du réseau (nombre de bus, km parcourus, nombre de voyages)................ 592 Figure 187 : Les transports collectifs rout iers et ferrés à l’échelle de la région châlonnaise............. 598 Figure 188 : Principales éta pes de l’intercommunalité dans l’agglomération châlonnaise................ 601 Figure 189 : Evolution des déplacements sur le territoire de la CAC................................................ 607 Figure 190 : Les aménagements cyclables à l’échelle de l’agglomération châlonnaise jusqu’en 2011. ....................................................................................................................................................... 611 Figure 191 : Aménagement du quartier de la gare........................................................................... 616 Figure 192 : La nouvelle configuration intercommunale de l’agglomération châlonnaise................. 619 Figure 193 : L’évolution de la population dans les quatre agglomérations étudiées......................... 625 Figure 194 : L’évolution de la population dans les quatre villes étudiées......................................... 626 656 Table des tableaux Tableau 1: La définition des deux dimensions (espace-temps) en rapporta avec la ville et la mobilité selon plusieurs chercheurs................................................................................................................ 45 Tableau 2 : Les outils et les actions des 3 politiques : transport, déplacement, mobilité.................... 63 Tableau 3 : Syndicat Mixte avant et après la loi SRU.......................................................................... 91 Tableau 4 : Motivations affichées pour la création des premiers SM (SRU), situation fin 2010........... 92 Tableau 5 : Les objectifs communs aux trois lois................................................................................ 95 Tableau 6 : Les projets de TCSP concernés par le 1ème appel à projets le 9 février 2011................... 102 Tableau 7 : Les projets de TCSP concernés par le 2ème appel à projets le 9 février 2011................... 103 Tableau 8 : Lois et leurs apports...................................................................................................... 112 Tableau 9 : Les répartitions des conseils en mobilité à l’échelle nationale en 2009 (région)............. 128 Tableau 10 : Etat actuel des SCoT en France.................................................................................... 132 Tableau 11 : Les principaux objectifs en matière de déplacements pris en compte par le SCoT....... 136 Tableau 12 : Comparaison entre les chartes d’Athènes et d’Aalborg............................................... 158 Tableau 13 : Critères et principes du TOD........................................................................................ 172 Tableau 14 : Complémentarité entre réseaux urbains et suburbains............................................... 176 Tableau 15 : La complémentarité entre les réseaux urbains et départementaux............................. 176 Tableau 16 : Complémentarité entre les réseaux urbains et TER..................................................... 177 Tableau 17 : L’évolution de la mise en place de tramway en France au fil des ans........................... 184 Tableau 18 : Thématiques pour un urbanisme orienté vers le rail.................................................... 215 Tableau 19 : Evolution démographique (en milliers) de la région Champagne-Ardenne et de ses départements au 1er janvier 2008................................................................................................... 232 Tableau 20 : L’évolution démographique en Champagne-Ardenne entre 1999 et 2011................... 233 Tableau 21 : L’évolution de la densité en Champagne-Ardenne entre 1968 et 2008........................ 234 Tableau 22 : Structure démographique de Reims Métropole entre 1968 et 2008............................ 244 Tableau 23 : L’agglomération de Reims, données de cadrage.......................................................... 247 Tableau 24: Les densités à l’échelle du grand territoire de Reims et de sa région............................ 249 Tableau 25 : Population et densité de l’aire urbaine de Reims, évolution entre 1968 et 2008.......... 251 Tableau 26 : L’offre d’emploi dans l’aire urbaine de Reims entre 1999 et 2007............................... 253 Tableau 27 : La répartition modale à quatre échelles de la région rémoise...................................... 262 Tableau 28 : Evolution du trafic des transports urbains................................................................... 272 Tableau 29 : Catégorie et répartition des lignes du réseau du Transport Urbain Rémois.................. 276 Tableau 30 : l’évolution de la population de Reims et son agglomération entre 1975 et 1999......... 294 Tableau 31 : Le SCoT rémois, informations clés............................................................................... 307 Tableau 32 : L'évolution du SCoT de Reims, données clés et stratégies............................................ 309 Tableau 33 : Le PDU de l'agglomération de Reims : évolutions et analyses...................................... 329 Tableau 34 : Complémentarité entre réseaux urbains et suburbains............................................... 332 Tableau 35 : Complémentarité entre réseaux urbains et départementaux...................................... 333 Tableau 36 : Complémentarité entre les réseaux urbains et TER..................................................... 334 Tableau 37 : Intercommunalité et transport à Reims....................................................................... 336 657 Tableau 38 : Desserte de la halte Franchet d'Esperey...................................................................... 343 Tableau 39 : Les NSM au sein de Reims Métropole.......................................................................... 360 Tableau 40 : La desserte en car depuis et vers Troyes, horaires et nombre de cars par jours........... 380 Tableau 41: Evolution de la population troyenne entre 1999 et 2006.............................................. 381 Tableau 42 : Répartition spatiale de la population à Troyes et sa région.......................................... 381 Tableau 43 : Les trois types de lignes qui composent le réseau du TCU troyen................................ 396 Tableau 44 : Réflexion sur un transport modulable en site propre................................................... 405 Tableau 45 : Schéma directeur et SCoT troyen, données de cadrage............................................... 408 Tableau 46 : Arrêts du rése au TCAT et accessibilité......................................................................... 417 Tableau 47: Linéaire cyclable en km................................................................................................ 418 Tableau 48 : Stations vélo à l’échelle du Grand Troyes, évolution entre 1999 et 2010..................... 420 Tableau 49 : NSM et leurs applications à l’échelle du Grand Troyes................................................. 421 Tableau 50 : Complémentarité entre réseaux urbains et suburbains............................................... 425 Tableau 51 : Complémentarité entre les réseaux urbains et TER..................................................... 425 Tableau 52 : Complémentarité entre réseaux urbains et départementaux......................................
8,638
2011PA066139_6
French-Science-Pile
Open Science
Various open science
2,011
None
None
French
Spoken
7,535
12,575
106 I0 (a.u.) IF (a.u.) 4.2. M ÉTHODE DE MODULATION FRÉQUENTIELLE UTILISANT LA FLUORESCENCE COMME OBSERVABLE 0 100 200 300 400 t ( s ) F IGURE 4.13 – Trait plein : variation de l’intensité de fluorescence suivie à λF = 574 nm pour une solution de TH2 Cl3 à la concentration de 61 μM et de Rhodamine B à la concentration de 1 μM dans un mélange tampon Britton-Robinson (acide acétique, acide borique, acide phosphorique 129 (0.04 M)) / acétonitrile (1/1) fixé au pH = 2.5. Pointillés : variation sinusoïdale de l’intensité lumineuse délivrée par le générateur à la pulsation de 126 mHz. Pour analyser plus en avant les résultats expérimentaux, il est possible de diviser l’intensité de fluorescence du système par le terme 1 + ε sin(ωt ). On crée ainsi la nouvelle fonction D dont l’expression découle de 4.46 : 0 D( t ) = ¢ 1 − e − 2.3 A ¡ I F (t ) =C 1 + εR sin(ωt − φ) 0 1 + ε sin(ωt ) 2.3A (4.49) et pour plus de commodité, on normalise D en la divisant par sa valeur moyenne. On obtient une fonction D Norm qui s’écrit : D Norm = D = 1 + εR sin(ωt − φ) <D > (4.50) La figure 4.14 montre le tracé de la fonction D Norm pour deux valeurs différentes de ω. Le déphasage entre la réponse et l’excitation est maintenant bien visible et on constate clairement qu’il est d’autant plus grand que la pulsation est élevée, comme prévu par les équations 4.35 et 4.36. Cependant , l ’ajustement sinusoïdal des courbes expérimentales n’a pas permis de corréler les valeurs de R de φ extraites à plusieurs pulsations avec les expressions théoriques 4.35, 4.36 et 4.47. On peut supposer que la très faible valeur de ε × R (qui n’excède pas 10−2, voir annexe 4.A) rend le rapport signal sur bruit trop faible pour observer plus que des tendances entre les hautes et les basses pulsations. Un mode de traitement alternatif des données expérimentales moyennant la variation de l’intensité de fluorescence sur plusieurs périodes et visant à améliorer le rapport signal sur bruit a donc été développé. 107 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 1.5 1.5 b 1.0 0.5 0.5 (a.u.) 1.0 Norm 0.0 D D Norm (a.u.) a -0.5 -1.0 0.0 -0.5 -1.0 -1.5 -1.5 0 100 200 300 400 500 0 20 t (s) 40 60 80 100 120 140 t (s) F IGURE 4.14 – Variation de la fonction D Norm pour une solution de TH2 Cl3 à la concentration de 61 μM et de Rhodamine B à la concentration de 1 μM dans un mélange tampon Britton-Robinson (acide acétique, acide borique, acide phosphorique 129 (0.04 M)) / acétonitrile (1/1) fixé au pH = 2.5. Carrés noirs : données expérimentales ; trait plein : ajustement par une fonction sinus ; pointillés : variation de l’intensité lumineuse à λE = 365 nm normalisée. a : ω = 32 mHz ; b : ω = 126 mHz. Traitement alternatif Par commodité, la fonction I F (t ) est normalisée sous la forme d’une nouvelle fonction Y (t ) dont l’expression théorique attendue s’écrit : " # 0 0 −2.3A 0 − 1 + e −2.3A I F (t )− < I F > 1 2.3A e = ε sin(ωt ) + 2.3A Y (t ) = sin(ωt − φ) 0 < IF > 2.3A 0 (1 − e −2.3A ) −2.3A 0 où < I F >= C 1−e 2.3A 0 (4.51) d’où 160 Y (t ) = ε(sin(ωt ) + R sin(ωt − φ)) (4 .52) Retenant le principe de la détection synchrone, 160 on définit ensuite les projections a et b selon : 2 nεT ZnT Y (t ) cos(ωt )d t (4.53) 2 b= nεT ZnT Y (t ) sin(ωt )d t (4.54) a= 0 0 où n est le nombre de périodes sur lequel est effectuée la moyenne (une dizaine dans la pratique). On définit alors la fonction Int(ω) telle que : Int(ω) = a 2 + b 2 = (R sin φ)2 + (1 + R cos φ)2 = 1 + 2R cos φ + R 2 (4.55) On peut négliger le terme R 2 d’ordre 2 vue la faible valeur de R (cf. figure 4.13 et annexe 4.A). Ainsi, Int(ω) ≈ 1 + 2R cos(φ) 108 (4.56) 4.2. M ÉTHODE DE MODULATION FRÉQUENTIELLE UTILISANT LA FLUORESCENCE COMME OBSERVABLE En utilisant les expressions de cos φ (4.35) et de R (4.47), on obtient ainsi finalement : Int(ω) = 1 + 2 Int(ω) = 1 + " e 2.3 ρ 0THCH τ0THCH (εCH − εTH ) −2.3A 0 (2.3A 0 + 1) − 1 0 2.3A 0 (1 − e −2.3A ) # 1 1 + (ωτ0THCH )2 J (4.57) (4.58) 1 + (ωτ0THCH )2 où le terme J est indépendant de la pulsation ω. La figure 4.15 présente les valeurs expérimentalement obtenues pour Int à différentes valeurs de ω ainsi que l’ajustement théorique selon l’é quation 4.58. 1.25 1.20 Int 1.15 1.10 1.05 1.00 0 50 100 150 200 250 300 ω (mHz) F IGURE 4.15 – Valeurs de la fonction Int pour ω = 32 mHz, 42 mHz, 55 mHz, 72 mHz, 94 mHz, 126 mHz, 164 mHz, 220 mHz, 287 mHz. Triangles : données expérimentales ; trait plein : ajustement par l’équation 4.58. L’ajustement des données expérimentales par l’équation 4.58 est satisfaisant, démontrant l’efficacité du traitement des données pour améliorer le rapport signal sur bruit. Il a permis d’obtenir : J = 0.245 ± 0.004 τ0THCH = 8.38 ± 0.26 s hν 0 hν 0. Les calculs et k CH→TH À partir des valeurs de J et de τ0THCH, il est possible de déterminer k TH→CH nécessaires pour obtenir ces grandeurs sont reportés en annexe 4.B et donnent finalement : hν 0 k TH→CH = 3.4 10−2 s−1 hν 0 k CH→TH = 1.1 10−2 s−1 Enfin, les valeurs des sections efficaces εTH φTH→CH et εCH φCH→TH sont déduites à partir des équations : 0 hν 0 k TH→CH = εTH φTH→CH l 1 − e −2.3A I0 V A0 hν 0 k CH→TH = ε CH φ CH → TH l 1 − e −2.3A I0 V A0 (4.59) 0 109 (4.60) C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 On obtient donc finalement : εTH φTH→CH = 850 L.mol−1.cm−1 εCH φCH→TH = 290 L.mol−1.cm−1 En utilisant les valeurs des coefficients d’absorption molaire à 365 nm de TH (εTH (365) = 1.7 104 M−1.cm−1 ) et CH (εCH (365) = 5.1 103 M−1.cm−1 ) mesuré sur la figure 3.5 et estimé grâce à l’équation 4.15 respectivement, on obtient les rendements quantiques de photoconversion : φTH→CH = 5 % φCH→TH = 6 % La méthode de modulation fréquentielle utilisant la fluorescence comme observable a donc permis ici de retrouver les valeurs des paramètres photochimiques à 365 nm associées à la molécule TH2 Cl3. Cette même méthode sera ré-utilisée ultérieurement dans le chapitre 7 pour déterminer ces mêmes paramètres à une autre longueur d’onde. 4.3 Méthode de relaxation utilisant l’absorbance comme observable Dans les deux méthodes précédentes, la détermination des paramètres cinétiques de la plateforme TH2 Cl3 repose sur une estimation grossière du rapport entre les coefficients d’absorption molaire de l’isomère trans par rapport au cis à tous les pH. Comme exposé au paragraphe 4.1.6, nous avons supposé que le coefficient d’absorption molaire de C (εC (λE )) était réduit d’un facteur homothétique 1 − α par rapport à celui de T (εT (λE )) pour toutes les longueurs d’onde, amenant ainsi à écrire l’équation 4.15 : εC (λE ) − εT (λE ) = −α εT (λE ) Cependant, les paramètres photochimiques du système sont sensibles au rapport entre les deux coefficients d’absorption molaire. Nous avons donc été amenés à rechercher des méthodes pour déterminer avec une meilleure précision les spectres d’absorption de toutes les formes impliquées dans la plateforme i.e. TH, T, CH et C. Dans cette partie, nous allons donc d’abord présenter une méthode permettant d’obtenir avec une bonne précision les spectres d’absorption de toutes les formes de la molécule TH2 Cl3 et en particulier le spectre de CH sur lequel la précision est la plus faible. Cette méthode utilise un spectrophotomètre à barrette de diodes « ouvert » récemment acquis par notre équipe et qui permet d’enregistrer l’absorbance d’une solution sous illumination continue au moyen d’une seconde source lumineuse. Nous avons ensuite employé ce spectrophotomètre à barrette de diodes pour déterminer les paramètres cinétiques des réactions photochimiques de la molécule TH2 Cl3. [j] [j]. Nous aurions évidemment pu uniquement corriger les valeurs trouvées par les méthodes précédentes et ne pas rechercher à déterminer une nouvelle fois les paramètres cinétiques ex nihilo mais la méthode présentée est à la fois plus rapide expérimentalement, plus simple mathématiquement et nécessite moins d’approximations que les précédents. 110 4.3. M ÉTHODE DE RELAXATION UTILISANT L’ ABSORBANCE COMME OBSERVABLE 4.3.1 Détermination précise des spectres d’absorption de tous les membres de la série TH2 Cl3 Détermination des spectres d’absorption des formes TH et T On a vu dans le chapitre 3 que les spectres d’absorption des formes TH et T sont aisés à obtenir puisque ces espèces sont stables cinétiquement dès lors que les solutions dans lesquelles elles sont dissoutes sont conservées à l’obscurité. Ces spectres sont rappelés figure 4.16 en traits pleins. Détermination du spectre d’absorption de la forme C Nous avons déjà insisté sur le fait que la forme C était thermiquement stable (le temps caractéristique d’isomérisation cis→trans à l’obscurité est de plusieurs heures à température ambiante). Il est donc possible, en irradiant à 365 nm une solution à pH = 11 contenant uniquement T, d’obtenir un mélange photostationnaire de T et C stable dans le temps, même une fois l’irradiation coupée. Le spectre d’absorption de cet état photostationnaire a donc été enregistré et est présenté figure 4.16 b. On a ensuite déterminé le rapport molaire des deux isomères présents dans cet état photostationnaire par analyse du spectre RMN du proton du mélange comme présenté figure 4.17. La comparaison des intégrations des signaux attribués à T et C permet de conclure que l’état photostationnaire contient 47% de T pour 53% de C. a b 4 2.0x10 4 2.0x10 -1 -1 -1 ε (M.cm ) 1.5 -1 ε (M.cm ) 1.5 1.0 0.5 1.0 0.5 0 0 300 400 500 600 700 λ (nm) 300 400 500 600 700 λ (nm) F IGURE 4.16 – a : Spectres d’absorption de TH (trait plein), de l’état photostationnaire de TH et CH (pointillés) et de CH (tirets), tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v), pH = 4. b : Spectres d’absorption de T (trait plein), de l’état photostationnaire de T et C (pointillés) et de C (tirets), tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M)acétonitrile 1-1 (v/v), pH = 11. T = 25 ◦ C. Pour confirmer les valeurs des proportions obtenues par RMN du proton, une analyse complémentaire a été effectuée par électrophorèse capillaire. La figure 4.18 présente les électrophérogrammes obtenus. Le premier, noté « T » correspond à une solution de T dans un mélange tampon de BrittonRobinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v) ajusté à pH = 11. La solution a été préparée et conservée dans l’obscurité pour éviter toute isomérisation 111 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 a 8 ( b 8 ( F IGURE 4.17 – a : Spectre RMN 1 H d’une solution de T à 8 10−5 M dans le tampon deutéré de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile deutérée 1-1 (v/v) à pH = 11 préparée et conservée dans l’obscurité ; [k] b : Spectre RMN 1 H du mélange photostationnaire de T et C après irradiation pendant 5 min à 365 nm de la solution précédente. La solution aqueuse de tampon deutéré a été préparée en lyophilisant 5 mL de tampon de Britton-Robinson (acide acétique, acide borique, acide phosphorique ; 0.04 M) puis en dissolvant la poudre obtenue dans 5 mL d’eau lourde. Ce processus a été répété deux fois . L’ acé tonitrile deutérée à été utilisée comme solvant de référence interne (1 H, 1.94 ppm). Les spectres ont été analysés avec le logiciel MestReNova LITE 5.5.0 © 2007 Mestrelab Research S.L. photo-induite. Il ne présente qu’un seul pic, caractéristique de l’isomère trans seul. Le troisième interphérogramme noté « T/C » montre le signal de la solution précédente irradiée 5 min à 365 nm (dans les mêmes conditions que pour l’expérience RMN). Les deux pics visibles démontrent qu’une nouvelle espèce est apparue : c’est l’isomère C. La comparaison des aires des deux signaux permet de déterminer la composition du mélange photostationnaire qui contient ici 43% de T pour 57% de C [l]. Les deux méthodes de détermination du rapport T/C présentées ci-dessus aboutissent à des résultats du même ordre de grandeur. La méthode électrophorétique étant plus rapide (quelques mi[k]. On remarque que le spectre RMN de la solution de T contient initialement un peu de C (environ 5 %) qui provient certainement de l’isomérisation de T à la lumière ambiante. En effet, même si l’échantillon est préparé à l’obscurité autant que faire se peut, on ne peut pas éviter de courtes expositions à la lumière naturelle. [l]. La longueur d’onde du détecteur de l’électrophorèse capillaire est réglé à 244 nm, qui correspond à un point isobestique (voir annexe 4.C). Il est donc inutile de corriger les aires des signaux par les valeurs des coefficients d’absorption molaire (qui sont identiques à la longueur d’onde d’observation). 112 Absorbance à 242 nm (u.a.) 4.3. M ÉTHODE DE RELAXATION UTILISANT L’ ABSORBANCE COMME OBSERVABLE T- TH/CH + NaOH T -/C0 50 100 150 200 Temps de migration ( s ) F IGURE 4.18 – Électrophérogrammes d’une solution de 1 mL de TH2 Cl3 de concentration 8 10−5 M dans un mélange tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v). L’électrophérogramme noté « T – » correspond à un échantillon à pH = 11 conservé dans l’obscurité ; celui noté « TH/CH + NaOH » correspond à une solution irradiée à pH = 4 par une lampe à 365 nm pendant 5 min à laquelle on a rajouté au moment de l’extinction de la lampe UV 2 μL de soude 9 M pour amener la solution à pH = 11 de sorte à bloquer le retour thermique ; l’électrophérogramme noté « T – /C – » correspond à un échantillon à pH = 11 irradié par une lampe à 365 nm pendant 5 min. L’électrolyte support est constitué par une solution hydroorganique (eau acétonitrile 1-1 (v/v)) contenant 35 mM d’acide 3-(cyclohexylamino)-1-propanesulfonique (CAPS), 25 mM de NaOH et 10 mM de triéthylamine. L’échantillon est injecté en mode hydrodynamique (13.8 mbar, 2s). T = 25 ◦ C. nutes) que la méthode RM N (le temps d ’acquisition est proche de 10 h [ m ] sur un appareil RMN 200 MHz ), nous avons privilégié l’obtention du rapport T /C par électrophorèse capilla ire. En effet, même si le temps de retour thermique de C est très long (plusieurs heures, voir paragraphe 3.3.3), il est qu’à l’échelle de 10 h, une partie des molécules C se soient ré-isomérisés en T, ce qui justifie de trouver un rapport qui contient légèrement plus T dans l’expérience RMN que dans l’étude électrophorétique. Connaissant maintenant le spectre d’absorption de T, du mélange photostationnaire et les proportions relatives de T et de C dans ce mélange, il est facile de retrouver le spectre d’absorption de C puisqu’à toutes les longueurs d’onde, on a l’expression du coefficient d’absorption molaire de C (εC ) en fonction du coefficient d’absorption molaire de T (εT ), du coefficient d’absorption molaire de l’état photostationnaire (εphotostat ) et des proportions relatives de T (p T ) et de C (p C ) : εC = εphotostat − p T εT pC (4.61) [m]. Pour diminuer le temps d’acquisition, on pourrait augmenter la concentration de l’analyse. Cependant, une concentration maximale est imposée par l’absorbance de la solution qui ne peut pas dépasser environ 1 (pour rester dans la zone de linéarité de la loi de Beer-Lambert). 113 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 On en déduit ainsi le spectre d’absorption de C présenté figure 4.16 b. L’effet hypochrome déjà évoqué lors des analyses qualitatives du système est bien retrouvé ici. Détermination du spectre d’absorption de la forme CH La grande instabilité thermique de CH (qui évolue à pH acide en TH avec un temps caractéristique de l’ordre de la trentaine de secondes) rend caduque la méthode utilisée précédemment. En effet, il n’est pas possible après irradiation de l’échantillon pour l’amener à l’état photostationnaire, de le transporter dans le spectrophotomètre pour enregistrer le spectre UV-Visible de l’état photostationnaire et encore moins de l’emmener ensuite dans l’appareil RMN pour déterminer le rapport de CH sur TH. En effet, tout cela prend trop de temps et les molécules CH été entièrement réisomérisées. La méthode utilisant directement l’électrophorèse capillaire n’est pas mieux adaptée. Ayant le même type de problématique, l’équipe de Gaston Vermeersch a récemment déterminé les constantes cinétiques des processus d’échanges entre les différents états de diverses plateformes photochromes 161–163 en utilisant une méthode combinant la spectroscopie UV-Visible et la RMN. L’irradiation des échantillons est effectuée dans des tubes RMN refroidis à très basse température (jusqu’à -50 ◦ C environ) de sorte à bloquer les processus de relaxation thermique. La mesure de l’absorbance est réalisée in situ grâce à une micro-cuve UV suffisamment petite pour rentrer dans le tube RMN. La sonde de l’appareil RMN 600 MHz est, elle aussi, refroidie à basse température. Une collaboration avec Stéphanie Delbaere a donc été mise en place pour tenter d’appliquer ce mode opératoire à notre système. Cette collaboration n’a malheureusement pas permis d’aboutir à des résultats satisfaisants puisque nous avons été incapables de refroidir l’échantillon de TH2 Cl3 dans un mélange tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v), ce dernier démixant vers 0 ◦ C et gelant vers -10 ◦ C. La méthode que nous avons finalement utilisée pour déterminer le rapport CH sur TH met à profit la très lente ré-isomérisation de l’isomère cis déprotoné C. L’idée est d’irradier à 365 nm un échantillon à pH = 4 et refroidi à 4 ◦ C pour ralentir au maximum le retour thermique. [n] Le spectre d’absorption est alors enregistré aussi vite que faire se peut. Ensuite, pour obtenir un système suffisamment persistant pour être analysable par RMN ou électrophorèse capillaire, nous avons effectué une trempe en agissant chimiquement sur le mélange photostationnaire de CH et TH en injectant quelques micro-litres de soude concentrée (9 M) en même temps que nous avons stoppé l’irradiation à 365 nm. Après une rapide homogénéisation, toutes les molécules sous la forme TH (respectivement CH) ont été déprotonées pour donner T (respectivement C) aboutissant à un mélange de T et de C dans les mêmes proportions que l’état photostationnaire de CH et TH précédent. Il est alors possible de déterminer le rapport de T et de C comme expliqué ci-dessus et donc d’accéder à celui de TH et de [n]. Dans un régime d’illumination intense, la composition de l’état photostationnaire ne dépend pas de la valeur de la constante cinétique de l’isomérisation cis→trans sous contrôle thermique (cf. paragraphe 5.B). Elle est donc peu dépendante de la température. 114 4.3. M ÉTHODE DE RELAXATION UTILISANT L’ ABSORBANCE COMME OBSERVABLE CH dans l’état photostationnaire. Cette méthode a été employée une première fois comme décrit ci-dessus pour fournir un ordre de grandeur grossier du spectre d’absorption de la molécule CH. 164 Cependant, une importante source d’erreur réside dans la détermination du spectre d’absorption de l’état photostationnaire. En effet, même en refroidissant la solution à 4 ◦ C, le temps nécessaire pour transporter la solution depuis la lampe UV, jusqu’au spectrophotomètre mais aussi le temps d’acquisition du spectre d’absorption font que le spectre de l’état photostationnaire obtenu est assez imprécis. L’achat d’un nouveau spectrophotomètre à barrette de diodes « ouvert » a résolu notre problème. Dans cet appareil le faisceau lumineux est collimaté de sorte à nous permettre d’acquérir un spectre UV-Visible en même temps que l’échantillon analysé est soumis à une excitation lumineuse même de forte intensité. Il nous a donc été possible de mesurer le spectre d’absorption de l’état photostationnaire in situ sans même couper la source d’excitation UV. [o] Équipé de cette technique et en appliquant le protocole consistant à ajouter de la soude concentrée au système pour « geler » la relaxation thermique, nous avons été capables d’obtenir le spectre d’absorption de l’état photostationnaire TH/CH (figure 4.16 a) puis de déterminer le rapport de TH par rapport à CH par électrophorèse capillaire comme évoqué ci-dessus. Ainsi, l’électrophérogramme noté « TH/CH + NaOH » sur la figure 4.18 permet par intégration de déduire que l’état photostationnaire contient 36% de TH pour 64% de C [p]. Finalement, l’équation 4.61 permet de déterminer pour chaque longueur d’onde la valeur du coefficient d’absorption molaire de CH et de déduire ainsi le spectre d’absorption de la molécule présenté sur la figure 4.16 a. La comparaison des valeurs des coefficients d’absorption molaire obtenue dans cette partie avec celles grossièrement évaluées dans les parties précédentes sera effectuée à la fin de ce chapitre. 4.3.2 Suivi direct de l’absorbance de la solution en fonction du temps sous irradiation Comme déjà évoqué plus haut, l’utilisation d’un spectrophotomètre à barrette de diodes permet d’enregistrer des spectres UV-Visible tout en illuminant continuellement la solution que l’on étudie à l’aide d’une fibre optique (cf. figure 4.19). Cela nous a permis de suivre directement l’absorbance de la solution lors de son illumination à 365 nm et d’en déduire facilement les paramètres cinétiques des réactions photochimiques à ces deux longueurs d’onde. [o]. Une explication du mode de fonctionnement d’un spectrophotomètre à barrette de diodes est présentée en annexe 4.D [p]. Nous avons, pour faire cette estimation, pris en compte la ré-isomérisation ayant lieu pendant la phase d’ajout de la solution de soude au mélange TH/CH et d’homogénéisation du milieu. Le temps nécessaire pour réaliser ces opérations a été estimé et en utilisant la valeur du retour thermique à 4 ◦ C (voir paragraphe 3.3.5) et les équations 3.30 et 3.31, on a extrapolé les proportions de TH et CH initiales. 115 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 fibre optique fibre optique cuvette I0 I entrée et sortie du faisceau F IGURE 4.19 – Gauche : Schéma du montage réalisé à l’intérieur du spectrophotomètre à barrette de diodes. Une fibre optique permet d’éclairer la solution à 365 nm en passant par le dessus de la cuve. Droite : Photo de la cuve à ’intérieur du spectrophotomètre avec la fibre optique correspondant au schéma. Rappel de l’expression analytique de la variation de l’absorbance avec le temps Le système initial, préalablement gardé à l’obscurité, est uniquement constitué de la molécule sous forme trans, qui sans restreindre la généralité est notée T. Sous illumination a lieu la réaction h i £ ¤ 3.13 où les concentrations des espèces moyennes T et C sont données par les équations 3.28 et 3.29 du paragraphe 3.3.2. D’où l’expression de l’absorbance par unité de longueur de trajet optique au cours du temps : 3 μ · ́ ̧ kT → − C εC −k t −1 1 −e A = A 0 1 + k εT avec k = k T → + kC → = k h ν − C − T contient que T . T→ − C + k h ν C→ − T + k∆ C → − T (4.62) et où A 0 est l’absorbance initiale du système qui ne Résultats obtenus On prépare une solution de TH2 Cl3 à 5.8 10−5 M dans un mélange de tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v) et on se place à pH = 4. La concentration de la solution est choisie de sorte à ce que l’absorbance soit inférieure à 0.15 : on peut ainsi développer l’expression des constantes de vitesse photochimiques à l’ordre 1 et ainsi négliger l’effet de l’absorbance comme montré par les équations 3.23, 3.24, 3.25 et 3.26. Cette solution est ensuite illuminée à 365 nm avec une puissance de 3.5 10−7 Ei.s−1. L’absorbance est suivie à 347 nm (maximum d’absorption). La courbe de la figure 4.20 montre l’évolution de l’absorbance de la solution en fonction du temps. Cette dernière commence par descendre de manière exponentielle avant de se stabiliser à un pallier qui correspond au mélange photostationnaire. Les données expérimentales sont ajustées par l’équation 4.62, ce qui permet d’obtenir les valeurs de k TH → et k CH → : − CH − TH k TH → (3.5 10−7 Ei.s−1 ) = 0.22 s−1 − CH k CH → (3.5 10−7 Ei.s−1 ) = 0.17 s−1 − TH L’opération a été répétée plusieurs fois : 116 (4.63) 4.3 . M ÉTHODE DE RELAXATION UTILISANT L’ ABSORBANCE COMME OBSERVABLE 0.11 0.10 0.09 A 0.08 0.07 0.06 0.05 0 5 10 15 λ (nm) F IGURE 4.20 – Évolution temporelle de l’absorbance à 347 nm de 1 mL d’une solution de TH2 Cl3 à 5.8 10−5 M dans un mélange de tampon de Britton-Robinson 129 (acide acétique, acide borique, acide phosphorique ; 0.04 M) acétonitrile 1-1 (v/v) à pH = 4, et irradiée à 365 nm avec une puissance de 3.5 10−7 Ei.s−1. Triangles : données expérimentales ; ligne : ajustement par l’équation 4.62. T = 25 ◦ C. – en faisant varier la puissance de la lampe entre 4.8 10−8 et 3.5 10−7 Ei.s−1 ; – en changeant le pH de la solution : les pH 4 et 11 situés respectivement aux pH supérieurs et inférieurs aux pK a des espèces TH et CH ont été étudiés car ils permettent de déduire tous les paramètres photochimiques associés aux espèces TH, T, CH et C. Pour chaque expérience, on extrait les valeurs des constantes de vitesse que l’on trace en fonction de la puissance d’illumination aux pH 4 et 11 comme présenté sur la figure 4.21. Les données expérimentales sont ajustées linéairement par les équations 3.23, 3.24, 3.25, 3.26. Pour l’excitation à 365 nm, on observe de très bonnes corrélations. En particulier les ordonnées à l’origine pour les courbes a, c et d sont respectivement de 0.00 ± 0.01 s−1, −0.01 ± 0.01 s−1 et 0.01 ± 0.01 s−1, en bon accord avec les valeurs nulles attendues. L’ordonnée à l’origine pour la courbe b vaut 0.07 ± 0.01 s−1 en très bon accord avec la valeur de la constante cinétique d’isomérisation cis→trans thermique 0.075 s−1 attendue. On déduit ensuite des coefficients directeurs les sections efficaces d’absorption et les rendements quantiques de photo-conversion recherchés : εTH φTH → = 290 M−1.cm−1 − CH εCH φCH → = 130 M−1.cm−1 − TH εT φT → = 250 M−1.cm−1 − C εC φC → = 240 M−1.cm−1 − T φTH → =2% − CH φCH → = 26% − TH φT → = 10% − C 117 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 a b (s ) 0.20 -1 0.15 z kTH kCH z 0.10 0.10 0.05 0.00 0.0 0.15 TH CH -1 (s ) 0.20 0.05 0.5 1.0 1.5 2.0 2.5 -7 3.0 0.00 0.0 3.5 0.5 -1 1.0 1.5 2.0 2.5 -7 x10 I0 (Einstein.s ) 3.0 3.5 -1 x10 I0 (Einstein.s ) d 0.20 0.15 0.15 T -1 (s ) 0.20 kT kC z z C -1 (s ) c 0.10 0.10 0.05 0.00 0.0 0.05 0.5 1.0 -7 1.5 2.0 2.5 0.00 0.0 3.0 0.5 -1 1.0 1.5 -7 x10 I0 (Einstein.s ) 2.0 2.5 3.0 -1 x10 I0 (Einstein.s ) F IGURE 4.21 – Dépendance des constantes de vitesse avec l’intensité lumineuse à 365 nm à pH = 4 (a : k TH → et − CH b : k CH → ) ; à pH = 11 (c : k T → et d : k C → ). Triangles et carrés : données expérimentales, lignes : ajustements − TH − C − T linéaires. T = 25 ◦ C. φC → = 19% − T Cette méthode rapide de détermination des paramètres photochimiques sera réutilisée à une autre longueur d’onde dans l’annexe 7.A du chapitre 7. 4.4 Comparaison générale des résultats et conclusions 4.4.1 Comparaison des coefficients d’absorption molaire Le tableau 4.1 présente deux jeux de valeurs des coefficients d’absorption molaire des formes TH, CH, T et C. Le premier jeu a été utilisé dans les parties 1 et 2 de ce chapitre. Le second jeu a été utilisé dans la partie 3. Les coefficients associés aux espèces trans TH et T sont identiques puisqu’ils sont obtenus par simple enregistrement de l’absorbance. Les coefficients des espèces photo-générées CH et C sont différents. Dans la colonne 1, ils sont obtenus grossièrement en considérant que les spectres des formes cis subissent un effet hypochrome homothétique à toutes les longueurs d’onde et quel que 118 4.4. C OM PARAISON GÉNÉR ALE DES RÉSULTATS ET CONCLUSIONS soit l’état de protonation. Le rapport d’homothétie a été évalué au mieux d’après la littérature 111 et notre connaissance expérimentale du système. A contrario, dans la colonne 2, les coefficients d’absorption molaire ont été déterminés expérimentalement aussi rigoureusement que possible (voir paragraphe 4.3.1). Ces derniers peuvent donc être considérés comme beaucoup plus précis. λE (nm) Colonne 1 Colonne 2 Estimation grossière Détermination précise 365 365 εTH (M.cm ) 4 1.7 10 1.7 104 εCH (M−1.cm−1 ) 5.1 103 5.0 102 εT (M−1.cm−1 ) 2.6 103 2.6 103 εC (M−1.cm−1 ) 7.8 102 1.3 103 −1 −1 TABLE 4.1 – Valeurs des coefficients d’absorption molaire à 365 nm obtenues grossièrement à partir de la figure 3.8 (colonne 1) et déterminés précisément dans le paragraphe 4.3.1 (colonne 2). En comparant les valeurs des deux colonnes pour CH et C on se rend compte que : i. Les valeurs de εC obtenues par les deux méthodes sont du même ordre de grandeur. Cela est attendu en considérant que la détermination du spectre d’absorption de l’espèce C est aisée puisque la molécule est cinétiquement stable à l’obscurité. La différence entre les deux valeurs émane de l’estimation peu précise de la quantité de chacune des espèces T et C dans l’état photostationnaire. ii. Par contre, les valeurs de εCH ne sont pas du même ordre de grandeur. La valeur du coefficient d’absorption molaire de CH obtenue par la méthode la plus précise est beaucoup plus faible que ce qui a été considéré initialement. Cette erreur provient, comme pour εC, de l’estimation peu précise de la quantité de chacune des espèces TH et CH dans l’état photostationnaire mais surtout de notre incapacité à enregistrer un spectre précis de l’état photostationnaire à cause de la relaxation thermique rapide à pH acide. 4.4.2 Comparaison des paramètres cinétiques des réactions photochimiques Le tableau 4.2 résume les valeurs des paramètres cinétiques des réactions photochimiques obtenues dans ce chapitre pour la molécule TH2 Cl3. Chaque colonne correspond à une des méthodes successivement décrites. Il n’est cependant pas possible de comparer directement ces trois jeux de valeurs. En effet, comme la présentation successive des trois méthodes suit le déroulement chronologique du travail de thèse, les valeurs précises des coefficients d’absorption molaire de l’ensemble des formes de TH2 Cl3 n’ont été exploitées que lors de la détermination des paramètres cinétiques basée sur la méthode de relaxation utilisant l’absorbance comme observable. Dans les deux autres méthodes, la détermination des para mètres cinétiques repose sur un estimation grossière du rapport des coefficients d’absorption molaire. 119 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 λE (nm) Colonne 1 Colonne 2 Colonne 3 Relaxation suivie Modulation fréquentielle Relaxation suivie par fluorimétrie suivie par fluorimétrie par UV 347 365 365 −1 −1 630 850 290 −1 −1 εCH φCH → (M.cm ) − TH 140 290 130 εT φT → (M−1.cm−1 ) − C 290 X 250 εC φC → (M.cm ) − T 260 X 240 φTH → − CH 3% 5% 2% φCH → − TH 2% 6% 26 % φT → − C 6% X 10 % φC → − T 18 % X 19 % εTH φTH → (M.cm ) − CH −1 −1 TABLE 4.2 – Données relatives aux paramètres photo-chimiques de la plateforme TH2 Cl3. X désigne une quantité qui n’a pas été évaluée. De plus, la méthode de relaxation utilisant la fluorescence comme observable a été menée à 347 nm, longueur d’onde maximum d’absorption de TH, alors que les deux autres méthodes ont été menées à 365 nm, longueur d’onde imposée par les sources lumineuses utilisées. Pour comparer rigoureusement les données issues des trois méthodes, il est donc nécessaire de corriger les résultats des deux premières méthodes en prenant en compte : i. la modification de longueur d’onde et les valeurs précises des coefficients d’absorption molaire dans la méthode de relaxation utilisant la fluorescence comme observable ; ii. uniquement les valeurs préc ises des co efficient s d ’absorption m olaire dans la mé thode de modulation fréquentielle utilis ant la fluorescen ce comme observable . Les données des colonnes 1 et 2 ont donc été corrigées selon le démarche suivante : i. Le paramètre α a été re-calculé en utilisant les valeurs des coefficients d’absorption molaire déterminées de manière précise. On obtient alors une valeur de α égale à 1 pour un pH inférieur à pK a CH/C et une valeur de α égale à 0.7 pour une valeur du pH supérieure à pK a TH/T. [q] ii. La correction des sections efficaces avec la longueur d’onde est faite en échangeant la valeur des coefficients d’absorption molaire à 347 nm par les valeurs précises à 365 nm. Le rendement quantique de photoconversion est supposé peu dépendant de la longueur d’onde sur cette plage. Les données corrigées sont reportées dans le tableau 4.3. [q]. La valeur de α pour un pH supérieur à pK a TH/T calculée avec les valeurs précises des coefficients d’absorption molaire est identique à celle déterminée par estimation grossière alors que la valeur pour un pH inférieur à pK a CH/C est largement différente. Il nous était en effet plus facile d’estimer cette valeur en milieu basique où les espèces T et C sont thermiquement stables, ce qui n’est pas le cas en milieu acide pour les espèces TH et CH. 120 4.4. C OMPARAISON GÉNÉRALE DES RÉSULTATS ET CONCLUSIONS λE (nm) Colonne 1 Colonne 2 Colonne 3 Relaxation suivie Modulation fréquentielle Relaxation suivie par fluorimétrie suivie par fluorimétrie par UV 365 365 365 −1 −1 460 530 290 −1 −1 εCH φCH → (M.cm ) − TH 320 640 130 εT φT → (M−1.cm−1 ) − C 290 X 250 εC φC → (M.cm ) − T 260 X 240 φTH → − CH 2% 3% 2% φCH → − TH 80 % 128 % 26 % φT → − C 6% X 10 % φC → − T 17 % X 19 % εTH φTH → (M.cm ) − CH −1 −1 TABLE 4.3 – Données corrigées relatives aux paramètres photo-chimiques de la plateforme TH2 Cl3. X désigne une quantité qui n’a pas été évaluée. En commençant par comparer les valeurs des sections efficaces de photoconversion obtenues par les trois méthodes, on observe que : i. les valeurs obtenues pour les espèces déprotonées sont en très bon accord. On constate en et εC φC → sont proches, la grandeur εT φT → étant léparticulier que les valeurs de εT φT → − C − T − C gèrement supérieure à εC φC →. − T ii. les valeurs obtenues pour εTH φTH → et εCH φCH → par les trois méthodes sont du même − CH − TH ordre de grandeur bien que plus dispersées. La valeur de εTH φTH → est supérieure à celle − CH de εCH φCH → pour les méthodes relaxatives. Cette tendance est inversée pour la méthode − TH fréquentielle. En ce qui concerne la comparaison des rendements quantiques de photoconversion, on remarque que : i. de même que précédemment, les valeurs obtenues pour les formes déprotonées sont en bon accord. Les rendements quantiques de la réaction cis→trans sont généralement supérieurs à ceux de la réaction trans→cis comme évoqué dans la littérature. 70,71 ii. les valeurs obtenues pour φTH → sont proches et très faibles alors que les valeurs de φC → − CH − T sont plus grandes et dispersées. Cela est dû à la division du terme de section efficace par le coefficient d’absorption molaire εC qui a une valeur faible. On retient cependant que de manière semblable aux formes déprotonées et conformément à la littérature, 70,71 le rendement quantique de la réaction cis→trans est supérieur à celui de la réaction trans→cis. Les variations observées particulièrement pour les formes protonées peuvent être attribuées au fait que les approximations effectuées dans les trois méthodes ne sont pas toujours de même nature. Par exemple dans la méthode fréquentielle, on n’a pas eu besoin de développer les expressions des constantes de vitesse au premier ordre en se plaçant à absorbance faible. 121 C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 Conclusions Dans cette partie nous avons développé trois méthodes parallèles pour déterminer les paramètres cinétiques des réactions photochimiques de la molécule TH2 Cl3. Comme évoqué ci-dessus, les paramètres obtenus par des méthodes différentes sont proches – ou au moins du même ordre de grandeur – ce qui conforte notre confiance dans la pertinence de ces trois méthodes d’analyse. La méthode de relaxation suivie par fluorimétrie est expérimentalement la plus lourde des trois présentées et repose sur de nombreuses approximations. La méthode fréquentielle est certainement la plus sensible des trois car, en plus de permettre de moyenner le signal sur plusieurs périodes, elle ne nécessite pas de travailler à absorbance faible. Elle est cependant très lourde mathématiquement et demande pour des systèmes lents, des temps d’acquisitions de plusieurs heures pour certaines fréquences. Elle ne pourrait donc pas être employée pour étudier un système qui se dégrade thermiquement ou photochimiquement. Enfin, la méthode de relaxation suivie par UV a l’avantage d’être rapide, de mettre en jeu peu d’approximations et de conduire à des résultats convaincants. Dans la suite de ce manuscrit, nous utiliserons donc (sauf mention contraire) les paramètres cinétiques obtenus par la méthode de relaxation utilisant l’absorbance comme observable. 122 4.A. O PTIMISATION DES CONDITIONS OPÉRATOIRES RELATIVES À L’ ÉTUDE EN FRÉQUENCE Annexes du chapitre 4 4.A Optimisation des conditions opératoires relatives à l’étude en fréquence Conformément à l’équation 4.46, il est nécessaire de se placer dans des conditions opératoires pour lesquelles la valeur de R est aussi grande que possible pour maximiser le rapport signal sur bruit. Dans cette partie, on va donc étudier la fonction R et déterminer des conditions opératoires optimales pour maximiser sa valeur. Pour cela on propose de séparer la fonction R en un produit de trois fonctions dont les variables peuvent être ajustées en jouant sur les paramètres de contrôle du système (absorbance et intensité lumineuse). 4.A.1 Mise en forme du facteur R On rappelle que l’équation 4.47 donne : ρ 0THCH τ0THCH e −2.3A (2.3A 0 + 1) − 1 (εCH − εTH ) R = 2.3 q 0 2.3A 0 (1 − e −2.3A ) 1 + (ωτ0THCH )2 0 (4.64) d’où en utilisant les définitions de τ0THCH et ρ 0THCH (équations 4.31 et 4.32) : ∆ hν 0 k CH→TH k TH→CH 1 2.3A 0 e −2.3A − 1 + e −2.3A (εCH − εTH ) hν 0 2.3c (4.65) R=q 0 hν 0 ∆ 2.3A 0 (1 − e −2.3A ) (k CH→TH + k TH→CH + k CH→TH )2 1 + (ωτ0THCH )2 0 0 0 0 sont les proportions de TH et de CH à l’état photostationnaire, on a : Or, si p TH et p CH 0 0 c = A 0 /(εTH p TH + εCH p CH ) d’où ∆ hν 0 k CH→TH k TH→CH 1 εCH − εTH 2.3A 0 e −2.3A − 1 + e −2.3A R=q 0 0 0 hν 0 hν 0 ∆ 2 (1 − e −2.3A ) 1 + (ωτ0THCH )2 εTH p TH + εCH p CH (k CH→TH + k TH→CH + k CH→TH ) (4.66) 0 0 si on pose ensuite x = 2.3A 0, on peut définir la fonction h telle que : h(x) = De plus en posant y = ∆ k CH→TH hν 0 hν 0 k CH→TH +k TH→CH 1 − e −x (x + 1) 1 − e −x (4.67), on peut définir la fonction i telle que : i (y) = y (1 + y)2 (4.68) On en déduit alors : R =− εCH − ε TH hν 0 k TH→CH 0 0 εTH p TH + εCH p CH hν 0 hν 0 k CH→TH + k TH→CH puis en posant K = − ε CH − ε TH h( x )i ( y) q 1 1 + ( ωτ0THCH )2 hν 0 k TH→CH 0 0 hν 0 hν 0 εTH p TH + εCH p CH + k TH→CH k CH→TH 123 (4.69) (4.70) C HAPITRE 4. D ÉTERMINATION DES PARAMÈTRES PHYSICO CHIMIQUES DANS L’UV DE TH 2 C L 3 on obtient finalement : R = K h(x)i (y) q 1 (4.71) 1 + (ωτ0THCH )2 On a donc écrit R comme un produit de trois termes ajustables : i. 4.A.2 Étude du facteur R Nous allons étudier successivement les différentes fonctions définies ci-dessus. Étude de la fonction h(x) On rappelle que x = 2.3A 0 h(x) = 1 − e −x (1 + x) 1 − e −x On trace sur la figure 4.22 la fonction h en prenant des valeurs de l’absorbance à l’état photostationnaire allant de 0 à 5. 1.0 0.8 h 0.6 0.4 0.2 0.0 0 1 2 3 4 5 0 A F IGURE 4.22 – Graphe de la fonction h en fonction de l’absorbance à l’état photostationnaire A 0. L’étude de la fonction h montre que mener l’expérience à une faible absorbance n’est pas souhaitable pour obtenir une valeur importante pour R ; l’extraction des constantes cinétiques ne pourra pas être effectuée en solution diluée. Par contre, avec une absorbance de l’ordre de l’unité, h(x) vaut environ 0.8 et est déjà quasiment à sa valeur maximale qui est 1. On va donc se placer à une absorbance forte pour effectuer l’expérience. 124 4.A. O PTIMISATION DES CONDITIONS OPÉRATOIRES RELATIVES À L’ ÉTUDE EN FRÉQUENCE Étude de la fonction i (y) On rappelle que y = ∆ k CH→TH hν hν k C→T +k T→C i (y) = y (1 + y)2 On trace la fonction i en prenant des valeurs de y en échelle logarithmique sur la figure 4.23. 0.25 0.20 i 0.15 0.10 0.05 0.00 0.001 0.01 0.1 1 10 100 1000 y F IGURE 4.23 – Graphe de la fonction i en fonction de y en échelle logarithmique. La fonction i est maximale pour une valeur de y égale à 1. Ainsi on peut maximiser la valeur de R hν hν en se plaçant à une intensité lumineuse I 0 telle que k C→T +k T→C soit du même ordre de grandeur que ∆ k CH→TH. Étude de la fonction K La constante K, dépendant des proportions de TH et de CH dépend donc également de l’intensité ́3 ́ 3 εTH φTH→CH ε ), lumineuse. Cependant, K est bornée entre sa limite à intensité lumineuse nulle ( 1 − εCH ε φ +ε φ TH TH CH→TH TH TH→CH 3 ́3 ́ εTH φTH→CH TH et sa limite à intensité lumineuse infinie ( 1 − εεCH εTH φCH→TH +εTH φTH→CH ). Ces deux limites ne sont pas très éloignées et K varie sur moins d’un ordre de grandeur quand I 0 varie des 0 à l’infini. Conditions optimales pour maximiser R On a donc vu ci-dessus que les conditions optimales pour maximiser la valeur de R sont : – Une grande valeur de A 0 : dans la pratique, on choisit une valeur proche de 1 pour rester dans le domaine de linéarité de la loi de Beer-Lambert. – Une valeur de l’intensité lumineuse I 0 adaptée pour que la somme des constantes de vitesse photochimiques et la constante de vitesse thermique restent du même ordre de grandeur. Dans la pratique, l’étude des constantes cinétiques photochimiques par la méthode de relaxation présentée dans la partie 4.1 de ce chapitre nous a aidé à choisir la valeur de I 0.
18,793
64/tel.archives-ouvertes.fr-tel-01558122-document.txt_1
French-Science-Pile
Open Science
Various open science
null
None
None
French
Spoken
8,020
13,337
La Phratrie de l'imaginaire : les écrivains africains et le modèle latino-américain à partir des années 1980 Ulrich Kevin Maganga : cteur 'Université de Strasbourg Spécialité : Littérature générale et comparée LA PHRATRIE DE L'IMAGINAIRE : LES ECRIVAINS AFRICAINS ET LE MODELE LATINO-AMERICAIN A PARTIR DES ANNEES 1980. Thèse dirigée par : M. MANGEON Anthony : Professeur de littérature, Université de Strasbourg Rapporteurs : Mme. MAZAURIC Catherine : Professeure de littérature, Aix-Marseille Université M. FONKOUA Romuald : Professeur de littérature, Université de la Sorbonne Paris IV Autres membres du jury : M. LAVOU Victorien : Professeur de littérature, Université de Perpignan Mme. LAFONT Suzanne : Professeure de littérature, Université Montpellier III M. MBONDOBARI Sylvère : Maître de conférences, Université de la Sarre Ulrich Kevin MAGANGA cteur l'Université de Strasbourg Spécialité : Littérature générale et comparée LA PHRATRIE DE L'IMAGINAIRE : LES ECRIVAINS AFRICAINS ET LE MODELE LATINO-AMERICAIN A PARTIR DES ANNEES 1980. Thèse dirigée par : M . MANGEON Anthony : Professeur de littérature, Université de Strasbourg Rapporteurs : Mme. MAZAURIC Catherine : Professeure de littérature, Aix-Marseille Université M. FONKOUA Romuald : Professeur de littérature, Université de la Sorbonne Paris IV Autres membres du jury : M. LAVOU Victorien : Professeur de littérature, Université de Perpignan Mme. LAFONT Suzanne : Professeure de littérature, Université Montpellier III M. MBONDOBARI Sylvère : Maître de conférences, Université de la Sarre On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM 4 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - A Mamie Lisa, Qui est allée m'attendre à demain. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même Remerciements « La thèse est un long voyage solitaire », entend-on en intégrant l'univers doctoral. Lorsqu'on en sort, on sait désormais que le voyage peut être plus long qu'on ne l'espérait, et moins solitaire qu'on ne l'imaginait. L'accomplissement de notre long voyage, riche d'expériences humaines et académiques, a été favorisé par un ensemble de contributions. De nature variée, elles se rejoignent dans leur concours. Aussi, il nous tient à l'esprit d'adresser des remerciements entrecoeuristes à l'ensemble des personnes qui, d'une manière ou d'une autre, nous ont apporté une portion de leur énergie pour nous aider à tenir la route. Nous pensons premièrement à notre directeur de thèse M. Anthony MANGEON dont la profonde implication et l'entière disponibilité ont conforté notre enthousiasme et considérablement éclairé nos pas le long de notre voyage dans la phratrie de l'imaginaire. Notre pensée s'arrête également sur le souvenir de M. Sylvère MBONDOBARI qui nous a aidé dans la préparation de ce voyage. Nous gardons en mémoire le très enrichissant séjour mexicain ainsi que les personnes qui ont rendu ce voyage possible. Pensons particulièrement à Mme. Aline ROUHAUD, Mme Suzanne LAFONT et M. Rahmane AMARA de l'Université Montpellier III ainsi qu'à Mahama JUAREZ et Sandra RANGEL CONTRERAS de l'Université de Guadalajara. Une pensée naturelle va à l'endroit de notre phratrie de Kagha, ce noyau familial qui nous alimente en énergie vitale et accompagne chaque pas de notre respiration en humanité. Anto-Yes, Saint-Es, Yes Saint-Esprit, Saint Paho, Delacroix, El Hassan na Kevin Di-Kass Jésus Leguide, Pachely, Idriss Arnaud, Wen Phéno na Kassa Alix, puissent vos noms porter les lettres de toute la phratrie dont je suis des plus reconnaissants aujourd'hui avant demain où je mourrai. Une pensée toute particulière pour la phratrie mangeonienne, nos très aimables et admirables compagnons de voyage pour qui j'ai développé une affection entrecoeuriste. A la périphérie de nos remerciements, notre entrecoeurisme retrouve la phratrie de La Marge, immunisée contre le stress du centre et sachant tirer profit de l'excentricité des drives marginaux les plus constructifs sur divers plans. Rostano MOMBO NZIENGUI, Brice NGOUANGUI na Urbain MOUSSAVOU, vous me direz seulement à quelle heure on 7 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - 8 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - Sommaire : Introduction générale11 Partie I/ Histoire, culture et écriture des univers africain et ibéroaméricain29 Chapitre I : Tissage historique de la culture en Afrique et en Amérique latine32 Chapitre II/ Ecritures d'une culture spécifique55 Chapitre III/ « L'âme africaine » sur les terres d'Amérique77 Chapitre IV/ Une médiathèque transatlantique97 Partie II/ Le modèle latino-américain : entre parenté et influence129 Chapitre I : Mémoires croisées sur une histoire133 Chapitre II/ Le roman de l'inquiétude existentielle173 Chapitre III/ L'écriture des petites misères209 Partie III/ Provincialiser l'Europe241 Chapitre I/ Aperçu théorique d'une quête du présent245 Chapitre II/ Langues et langage271 Chapitre III/ Ecriture d'un imaginaire du Sud291 Conclusion générale337 Blibliographie345 Table des matières369 Résumés373 9 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - 10 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - Les années 1980 constituent une période décisive dans l'élaboration des « nouvelles écritures africaines »1. Critiques et historiens de la littérature s'accordent pour parler d'un « tournant des années 1980 » impulsé par une nouvelle génération d'écrivains. Plusieurs réalités expliquent ce renouveau littéraire : la caducité de la thématique anticoloniale dont s'est nourri le roman africain quasiment dès ses origines, la déception des espoirs placés dans les indépendances, l'expansion des atiques postcoloniales ou encore le phénomène de globalisation. Tout cela amène les écrivains africains (qui appartiennent de plus en plus au monde intellectuel et universitaire) à repenser leur rapport à l'Afrique et au monde, à redéfinir leur projet littéraire en tenant compte de la globalité-monde, à réfléchir sur les conditions d'élaboration d'une littérature conciliant la dimension nationale ou régionale et la dimension internationale ou universelle. Dans le prolongement des oeuvres comme Le Devoir de violence2 du Malien Yambo Ouologuem ou Les Soleils des indépendances3 de l'Ivoirien Ahmadou Kourouma, la littérature africaine africaine « classique » passe, à de « une façon écriture nettement postcoloniale remarquable, résolument d'une écriture moderne, voire postmoderne »4 comme l'indique Lydie Moudileno. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - notre bénéfice, je me sens riche d'une identité internationale ainsi que d'une identité propre, je veux dire d'un style, d'une signature qui me distinguent même de mon jumeau Ainsi en rupture avec la pensée de leurs prédécesseurs et, par conséquent, avec le projet esthétique de ceux-ci qui semble bâtie sur un socle unique de culture – africaine traditionnelle –, les écrivains de la nouvelle génération transforment « le texte francophone en parfait réceptacle des lettres universelles »7. Ils sont, pouvons-nous dire, voués à la production d'un roman ouvert à toutes les influences, un roman caractéristique du tout-monde glissantien, remarquera Papa Samba Diop8. La signature du manifeste Pour une littérature-monde par plusieurs de ces écrivains traduit clairement l'aspiration universaliste qui les anime. Des romanciers comme Henri Lopes, Kossi Efoui, Koffi Kwahulé ou Alain Mabanckou se sentent en droit de revendiquer un héritage universel, libres de recourir au modèle esthétique qui leur sied, à même de choisir quelle orientation donner à leur écriture. Pensons une fois de plus à Henri Lopes qui le notifie formellement, « quelles que soient ses origines, tout romancier dispose du choix de son sujet et du lieu de son histoire, tout comme il dispose de la liberté d'écrire dans la langue de son choix »9. Dans le même ordre d'idées, Abdourahman Waberi invite les écrivains à pratiquer la transhumance littéraire10. Le roman francophone subsaharien s'ouvre donc à la culture universelle, empruntant désormais de façon délibérée aux ressources culturelles, historiques et littéraires de tous les horizons. Cette diversification de ressources correspond à une multiplication de modèles d'expression et de représentations littéraires. L'Afrique intégrant la « totalité-monde », on ne s'étonnera désormais plus de déceler un lien entre une oeuvre d'Ahmadou Kourouma et Dos Passos11 ou entre celle d'A Mabanckou et celle de Louis-Ferdinand Céline 12. Entre autres diverses possibilités d'orientations littéraires, le roman latino-américain semble particulièrement intéresser bon nombre de romanciers africains qui en font visiblement un des modèles privilégiés. Il se dessine de façon assez remarquable – entre la fin des années 1970 avec la parution de La Vie et demie de Sony Labou Tansi en 1979 et au moins jusqu'en 2015 où Tierno Monénembo publie Les Coqs cubains 6 Henri Lopes , « Ecrire l'Afrique aujourd'hui » in Papa Samba Diop/ Sélom Komlan Gbanou, Palabres vol. VIII, No spécial 2007-2008, Langres, Ed. Dominique Guéniot, 2008, pp. 7-11, p. 8. 7 Papa Samba Diop, « Le roman francophone subsaharien des années 2000, Les cadets de la post-indépendance », Culture sud N°166 juillet-septembre 2007, p. 13. 8 Voir l'article ci-dessus. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - chantent à minuit – quelque chose de l'ordre d'une tendance africaine du roman latinoaméricain laissant s'échapper un air de parenté entre les deux univers littéraires. Nous nous intéressons justement au rapport entre ces deux univers sous le thème de « la phratrie de l'imaginaire » dont nous envisageons de cerner les différents enjeux pour la production romanesque afro-francophone. Pour des besoins de clarté et de rigueur, relevons tout de suite ce qu'il convient d'entendre par les termes phratrie, imaginaire et latino-américain. Avant tout, commençons par aborder une notion qui s'avérera essentielle dans le cadre du présent travail : la parenté. Au-delà de sa définition première qui lui donne le sens de rapport entre individus établi par la naissance ou la consanguinité voire par l'alliance matrimoniale, la parenté peut se décliner en termes de similitudes, ressemblances, traits communs conférant un air de famille à différentes entités (à ce titre, nous pourrons parler de parenté des univers africain et latino-américain en cela qu'on y relève des homologies). Elle peut également prendre le sens de relation d'appartenance commune à un ensemble déterminé, une famille définie par la nationalité, la communauté géographique ou linguistique, le phénotype voire la génération. Cependant, alors qu'on pourrait être tenté de ranger les différents caractères de famille sous le même concept de parenté, on constate que des nuances existent dans leur conceptualisation. Ainsi, par exemple, il s'opère une distinction entre le concept de parenté et celui d'ancestralité en littérature comme cela apparaît chez Ralph Ellison. En effet, avec l'intellectuel et écrivain américain, la parenté s'entendra comme la communauté naturelle, politique socio-anthropologique tandis que l'ancestralité renverra au lien motivé qui unit un auteur et ceux qui l'ont influencé ou inspiré. Suivant cette idée, le natif d'Oklahoma City écrit : While one can do nothing about choosing one's relatives, one can, as artist, choose one's "ancestors". Wright was, in this sense, a "relative", Hemingway an "ancestor". Langston Hughes, whose work I knew in grade school and whom I knew before I knew Wright, was a "relative" ; Eliot, whom I was to meet only many years later, and Malraux and Dostoevsky and Faulkner, were "ancestors" 13. D'un côté on a un groupe auquel on appartient de fait, les parents, et de l'autre un groupe dans lequel on s'intègre, les ancêtres. Estimant que « les écrivains ressemblent plus à leurs frères qu'à leurs pères »14 Henri Lopes préfère cependant parler de fraternité plutôt que d'ancestralité. Son idée est que, sans nécessairement entretenir des rapports d'engendrement, 13 Ralph Ellison, « The World and the Jug » [1964], in The Collected Essays of Ralph Ellison, New York, The Modern Library, 2003, p.185. 14 Henri Lopes, Ma grand-mère bantoue et mes ancêtres les Gaulois, Paris, Gallimard, 2003, pp. 15-16. 13 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - les écrivains « entretiennent entre eux des liens et des échanges, qui se rient des frontières et du temps »15. Une idée qu'on retrouve chez Alain Mabanckou qui s'inscrit dans une fraternité littéraire fondée sur des « complicités au-delà des continents, nationalités, des catéchismes et de l'arbre généalogique pour ne retenir que le clin d'oeil que se font deux créateurs que tout semblait éloigner dès le départ »16. Il parle ainsi de « fratrie littéraire » qui lui fait par exemple se sentir plus proche de Céline – dont il partage la langue – que de Wole Soyinka dont il partage l'appartenance géographique ou la communauté phénotypique. En ce qui nous concerne, nous parlerons souvent de parenté pour désigner l'air de famille, les similitudes, les traits communs entre des univers ou des oeuvres relevant soit d'homologies naturelles soit du conditionnement c'est-à-dire d'une « habitude mentale » relevant d'une formation similaire ou de l'impact de l'empire culturel ainsi que l'expose assez bien Judith Schlanger dans son ouvrage Le Neuf, le différent et le déjà-là17. Par contre, ce qui apparaît sous le concept d'ancestralité chez Ralph Ellison, la fraternité d'Henri Lopes ou la fratrie d'Alain Mabanckou, trouvera son sens dans la notion de phratrie que nous mettons en avant dans le cadre de notre travail. Pourquoi phratrie au lieu de fratrie? On connaît « la fratrie des écrivains congolais » des années 1970-1980 voire 1990 composée entre autres d'auteurs comme Sylvain Bemba, Henri Lopes, Sony Labou Tansi, Jean-Baptiste Tati Loutard, Guy Menga. Un groupe d'écrivains congolais ayant décidé de se rassembler en une famille pour échanger sur la littérature et se prêter assistance dans leur travail. Une fratrie qui avait tout d'un compagnonnage littéraire, les uns et les autres se faisant régulièrement des clins d'oeil dans leurs oeuvres. Cela nous fait penser au « groupe de Barranquilla »18 auquel a appartenu Gabriel García Márquez qui, soit dit en passant, a très bien été adopté par « la fratrie des écrivains congolais ». On pourrait d'ailleurs se dire que la phratrie que nous évoquons ici est, en quelque sorte, la version transatlantique de « la fratrie des écrivains congolais ». Alors 15 Henri Lopes, Ma grand-mère bantoue et mes ancêtres les Gaulois, Op.cit., p.17. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - revenons à notre question. Pourquoi phratrie au lieu de fratrie? Peut-être parce que ces parfaits homonymes ne sont pas parfaitement synonymes. Une archéologie des notions suffit pour s'en rendre compte. Du latin frater qui signifie frère, le vocable fratrie « appartient à l'origine au vocabulaire de la démographie et désigne l'ensemble des frères et soeurs d'une même famille »19, lit-on sur le site de l'Académie Française. Le terme phratrie, par contre, ressortit d'abord au vocabulaire des institutions grecques : il est emprunté du grec phratria, qui désignait une association de citoyens liés par une communauté de rites et appartenant à la même tribu. Ce terme a été repris par la suite par les anthropologues pour désigner un ensemble de clans qui se disent apparentés. Phratia est dérivé de phratêr, « membre d'un clan », et non pas « frère biologique ». Pour évoquer cette dernière notion, les Grecs avaient d'autres mots, parmi lesquels adelphos, « frère », et adelphé, « soeur », qui signifiaient proprement « (nés d') un seul utérus »20. Pour rendre les choses encore plus claires, si besoin est, disons qu'à l'opposé de la « fratrie » qui réfère à une fraternité biologique d'ascendance directe (individus issus du même utérus), la phratrie renvoie – dans la Grèce athénienne – à une division tribale caractérisée par une association de personnes ou de familles revendiquant une ancestralité commune, sans nécessairement être liées par le sang. Il est un groupement de familles, une subdivision de la tribu remplissant des fonctions religieuses ou civiles. « Une fois que les familles, les phratries et les tribus étaient convenues de s'unir et d'avoir un même culte, aussitôt on fondait la ville pour être le sanctuaire de ce culte commun »21, écrit Fustel Coulanges au sujet de la tradition grecque. On comprend à ces propos que la fratrie est un sous ensemble de la phratrie qui est elle-même un sous ensemble de la tribu. Pourquoi donc phratrie au lieu de fratrie? Parce que c'est le caractère d'unité ou de regroupement autour de pratiques et de croyances communes que nous mettons en avant en utilisant la notion de phratrie pour désigner les imaginaires africain et latino-américain. Le terme fratrie est relativement acceptable pour se référer au groupe d'écrivains congolais qui, bien que n'étant pas biologiquement frères, appartiennent au moins à la même « mère patrie » congolaise. Il l'est certainement moins pour évoquer un ensemble d'écrivains issus de nations et de continents distincts. 19 « Fratrie et phratrie », Académie française (Dire ne pas dire) [En ligne], URL : http://www.academiefrancaise.fr/fratrie-et-phratrie mis en ligne le 07 novembre 2013, consulté le 11 avril 2015. 20 « Fratrie et phratrie », Académie française (Dire ne pas dire), Op. cit. 21 Fustel de Coulanges, La cité antique : étude sur le culte, le droit, les institutions de la Grèce et de Rome, Valladolid, Editorial Maxtor, [1864] 2011, p. 166. 15 On trouve Die u non pas en le cherchant mais en se cher chant soi-même - UKM - Concernant l'imaginaire, deux versants sémantiques – parallèles mais complémentaires – sont à inscrire à son compte. D'une part, l'imaginaire désigne l'un des trois principaux plans du champ psychanalytique (le réel, le symbolique et l'imaginaire). D'autre part, il renvoie au moment où les modes d'expression dévient de leur fonction représentative des objets pour mettre en scène les fantasmes d'un sujet – individuel – ou les croyances d'un groupe avec interactions possibles des unes aux autres22. Il s'agit en tout cas d'une dimension de l'imagination. Nous l'entendons simplement comme mode de penser ou de représentation du réel appréciable à l'échelle individuelle ou collective. Nous y reviendrons plus tard en abordant sa théorisation par l'anthropologue français Gilbert Durand. Pour ce qui est du sens du terme latino-américain, il semble aller de soi. Cependant, devant l'ambiguïté que lui reconnaît João Feres Júnior, il nous apparaît nécessaire de préciser quel sens revêt ce « concept » dans notre étude. Dans son ouvrage intitulé Histoire du concept d'Amérique latine aux Etats-Unis23, João Feres Júnior montre en effet que le concept d'Amérique latine ou « Latin America » est problématique dans la mesure où il a été créé par les Nord-Américains dans le but de se glorifier et de renforcer leur propre identité en lui opposant péjorativement « le latinoaméricain ». Ce concept est ainsi lié à un ensemble d'attributs péjoratifs qui ont favorisé et légitimé la politique d'asservissement des Etats-Unis vis-à-vis de leurs voisins du Sud et il renferme un certain chauvinisme qui s'est même retrouvé dans les théories et approches des sciences sociales avec les « latin america studies » des spécialistes nord-américains, indique le sociologue brésilien. Ce dernier signale toutefois que, de nos jours, le terme latin america est fréquemment employé [] pour désigner une localisation. Comme tel, il constitue un élément du vocabulaire géographique. [En ce sens,] l'expression signifie quelque chose comme « un lieu correspondant aux limites de l'Amérique latine »24. Le sens géographique du concept d'Amérique latine ainsi empreint de neutralité, il correspond au nom de continent au même titre que l'Afrique, l'Europe ou l'Asie. Sera donc appelé latino-américain, tout ce qui renvoie à l'espace « latin » de l'Amérique c'est-à-dire l'espace américain linguistiquement dominé par les langues latines que sont l'espagnol, le 22 Paul Aron & cie, Le dictionnaire du littéraire, Paris, PUF, 2002, p. 369. João Feres Júnior, Histoire du concept d'Amérique latine aux Etats-Unis, Paris, L'Harmattan, 2010. 24 Ibidem., p. 9. 23 16 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - portugais et le français. C'est exactement ce sens se rapportant à la géographie que nous retenons dans notre travail. Autre précision, l'expression phratrie de l'imaginaire est doublement connotée. D'une part, elle fait référence à des individus dont la fraternité relève de leur appartenance à un imaginaire commun, un ensemble d'individus unis par des pratiques et des croyances relevant du même imaginaire. D'autre part, elle fait référence à la parenté de l'imaginaire d'un groupe avec celui d'un autre ; elle caractérise des imaginaires issus frères, comme appartenant au même clan ou à la même tribu – ce qui peut être du fait de relever de la même culture ou simplement, pour filer la métaphore, de cultures soeurs. Pour rappel, sous la formulation La Phratrie de l'imaginaire : les écrivains africains et le modèle latino-américain à partir des années 1980, nous nous intéressons à l'orientation latino-américaine du roman africain observable à partir du tournant des années 1980. Qu'il s'agisse l'espace romanesque, des thèmes ou de l'esthétique, des traits reconnaissables à l'univers latino-américain apparaissent dans le roman africain laissant ainsi s'échapper un air de parenté entre les deux univers littéraires. Notre étude s'intéresse à cette parenté qui semble fonder ce que nous appelons phratrie de l'imaginaire afin de problématiser le rapprochement romanesque des univers africains et latino-américains. 25 Voir Jean-Louis Cornille, Plagiat et créativité, Amsterdam-New York, Ed. Rodopi, 2008. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - C'est, entre autres, le cas avec El Hadj Abdoulaye Diop dont la thèse26 porte sur la manifestation du réalisme magique chez ces deux écrivains sans vraiment prendre en compte la dimension hypertextuelle27 de leurs oeuvres. Des pistes d'interprétation nous sont par contre fournies par Justin K. Bisanswa28 qui aborde la relation entre Gabriel García Márquez et Sony Labou Tansi sous le prisme d'une homologie caractéristique de la modernité des deux romanciers. L'idée n'est pas loin de celle de Georges Ngal qui, sans établir de rapport avec le roman latino-américain, note que « l'esthétique du grotesque, de la bouffonnerie apparue dans le roman de la décennie quatre-vingt n'est compréhensible que comme dénonciation des dictatures ubuesques »29. A une échelle plus grande, Mame Seck Mbacke s'intéresse au parallélisme entre la littérature africaine et la littérature latino-américaine 30. Sans vraiment aborder le dialogue qui existe entre les deux littératures, il évoque plutôt la fécondité de la culture africaine dans l'élaboration d'une littérature latino-américaine originale et relève les communes attentes placées autour de ces deux littératures liées par une même toile de fond. Il s'agit là, d'un article singulièrement remarquable par le parallélisme qu'il fait entre les univers socioculturels des littératures africaine et latino-américaine qui devraient les engager sur une même trajectoire « débouch[ant] sur la sauvegarde de l'humain : ce qui fait l'homme »31. D'après ces analyses donc, la justification de la parenté entre des romans latino-africains et les romans africains est à rechercher du côté de la parenté des univers eux-mêmes. L'Amérique latine et 'Afrique sont effectivement très proches. Géographiquement parlant, toutes deux représentent des espaces tropicaux avec d'importantes forêts et fleuves en grande partie réchauffés par le même équateur. Il s'agit de détails particulièrement importants pour l'imaginaire des différents espaces comme on l'entend notamment avec Sony Labou Tansi qui déclare : « c'est comme cela que j'explique ma parenté avec l'Amérique latine. Mon 26 El Hadj Abdoulaye Diop, Aspects du Réalisme chez Gabriel Garcia Marquez et chez Sony Labou Tansi : Réalisme merveilleux et réalisme surnaturel, Université Paris IV Sorbonne, thèse de doctorat nouveau régime, septembre 1996. 27 Le terme renvoie à l'hypertextualité, concept développé par Gérard Genette pour définir les rapports de filiation entre les textes. Voir Gérard Genette, Palimpsestes ou la littérature au second degré, Paris, Seuil, 1982. 28 Justin K. Bisanswa, Roman africain contemporain : Fictions sur la fiction de la modernité et du réalisme, Paris, Honoré Champion, 2009. 29 Georges Ngal, Création et rupture en littératures africaines, Paris, L'Harmattan, 1994, p. 9. 30 Mame Seck Mbacke, « le réalisme magique chez Sony Labou Tansi et Gabriel Garcia Marquez », Ethiopiques, No 68, 1er semestre 2002, [En ligne], http://www.refer.sn/ethiopiques/article.php3?id_article=29. Consulté le 25 avril 2009. Il reprend, dans son article, une analyse déjà exposée pour le compte de sa thèse de doctorat : Aspects du Réalisme chez Gabriel Garcia Marquez et chez Sony Labou Tansi : Réalisme merveilleux et réalisme surnaturel, Université Paris IV Sorbonne, thèse de doctorat nouveau régime, septembre 1996 31 Mame Seck Mbacke, « le réalisme magique chez Sony Labou Tansi et Gabriel Garcia Marquez », Op.cit 18 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - désir fougueux de rester près de l'équateur, de vivre avec un coeur où il fait chaud »32. La tropicalité apparaît comme un élément de rapprochement des imagin aires. En plus, cet espace tropical est pourvu d'un relief impressionnant, à l'origine d'un imaginaire singulier du point de vue de Sony Labou Tansi qui soutient qu'« on peut garder la Seine dans n'importe quel cerveau humain, pas l'Amazone et encore moins l'Amazonie »33 qu'il considère comme équivalents du Kongo et de la forêt du Bassin du Congo. On relèvera la mise en distance du modèle occidental – caractérisé par la Seine – dans son rapprochement des univers africain et latino-américain. Sur le plan politico-historique, les deux continents ont été victimes de l'esclavage pratiqué par les puissan impériales de l'Occident avant de connaître les sévices inhérents à la vie coloniale. Ils ont traversé la « situation coloniale »34 puis celle de décolonisation avant de vivre en situation de « néocolonialisme »35 et enfin en situation postcoloniale36. Il s'agit ainsi, dans les deux cas, de continents qui ont vu des régimes conservateurs et dictatoriaux succéder aux coloniaux. Nous savons avec Lucien Goldman que l'imaginaire d'un auteur (nous pouvons l'étendre aux peuples) est influencé par son univers vital. Cela implique que ceux vivant dans des univers semblables sont soumis à la même influence. 32 Sony Labou Tansi cité par Jean-Michel Dévésa in Jean-Michel Dévésa, Sony Labou Tansi écrivain de la honte et des rives du Kongo, Paris, L'Harmattan, 1996, p. 220. 33 Ibidem., p. 226. 34 Terme que Catherine Coquery-Vidrovitch emprunte à G. Balandier dont l'article ainsi intitulé parait en 1951. Il désigne le moment de colonisation effective. Voir Catherine Coquery-Vidrovitch Enjeux politiques de l'histoire coloniale, Enjeux politiques de l'histoire coloniale, Marseille, Agone, 2009, p. 17. 35 Mot que Catherine Coquery-Vidrovitch reconnaît à Nkrumah, alors président du Ghana. Voir Catherine Coquery-Vidrovitch, Enjeux politiques de l'histoire coloniale, Op.cit. p. 18. 36 Il s'agit de la période de résistance au discours impérial. Voir Catherine Coquery-Vidrovitch, Enjeux politiques de l'histoire coloniale, Op. cit., p. 18. 37 Boniface Mongo-Mboussa, Nouvelle génération. 25 auteurs à découvrir. Cultures Sud. Notre Librairie, N° 166, juillet-septembre 2007, p. 17. 19 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - On retrouve l'idée d'une influence du roman latino-américain sur le roman africain chez Jean-Jacques Séwanou Dabla qui, bien que se gardant de « cerner l'ampleur des rapports existants entre Sony Labou Tansi et Gabriel García Márquez », s'engage toutefois à montrer comment l'intertextualité peut délaisser la simple citation de mots et devenir cette entreprise du type romanesque, cette reproduction de motif qui crée l'homologie narrative chez les deux écrivains et la novation dans le roman africain 38. Il faut dire que, sans renier l'influence de « l'air du temps », en l'occurrence la modernité évoquée plus haut, le critique nous invite à regarder du côté de l'intertextualité – notamment le recours au modèle latino-américain – pour y déceler une source du renouvellement de l'écriture africaine. Il traite du cas Gabriel García Márquez et Sony Labou Tansi tout en généralisant l'influence du roman latino-américain sur le roman africain du tournant des années 1980. Une autre piste intéressante à explorer est celle proposée par Daniel-Henri Pageaux qui – travaillant sur le rapport Sony Labou Tansi/ Gabriel García Márquez – suggère la mise en exergue du caractère manifeste de la récriture qu'il conçoit comme un principe d'écriture visant à réhabiliter l'antique imitation et pouvant fonctionner comme un clin d'oeil fait à l'Occident en guise de résistance 39. Avec François Tchichellé Tchivéla40, on dépasse le rapport entre les deux écrivains pour avoir une vue un peu plus généralisée aux espaces congolais et latino-américain. Le critique, peu d'accord avec l'idée d'une influence latino-américaine sur le roman congolais, adopte tout de même une position concessive. Il estime en effet que la ressemblance entre la littérature congolaise et la littérature latino-américaine est plus une affaire de parenté que d'influence et, si son propos est de relever qu'« il existe surtout entre cette littérature [latino-américaine] et celle du Congo des rencontres fortuites, des ressemblances involontaires et des différences essentielles »41, il reconnaît néanmoins que « l'influence de la littérature latino-américaine est incontestable chez certains écrivains congolais »42. En plus de reconnaître l'intérêt de certains écrivains congolais pour le modèle latino-américain, l'article de François Tchichellé Tchivéla le mérite de fournir une explication des homologies remarquables entre les oeuvres congolaises et la littérature latino-américaine, comme l'article de Daniel-Henri Pageaux le fait au niveau 38 Jean-Jacques Séwanou Dabla, Nouvelles écritures africaines. Romanciers de la seconde génération, Op.cit., p. 228. 39 Daniel-Henri Pageaux : « Entre le nouveau et la modernité : vers de nouveaux modèles? », Notre Librairie n°78, 1985, p. 31-35. 40 François Tchichellé Tchivéla, « Une parenté outre-Atlantique », Notre librairie, Littérature Congolaise, No92/93, 1988. 41 Idem. 42 Ibidem., p. 34. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - de la relation Sony Labou Tansi/ Gabriel García Márquez. La thèse de l'influence nous semble tout aussi soutenable que celle de la parenté défendue par le premier groupe. Entre les deux positions que nous venons d'exposer ci-dessus, nous adoptons celle de la conciliation. Nous proposons d'approcher le sujet sous l'angle de l'influence de la parenté c'est-à-dire que la parenté cosmique et historique des univers latino-américain et africain influencerait la production romanesque qui finirait elle-même par établir une parenté littéraire. L'hypothèse qui nous vient alors à l'esprit – et autour de laquelle se construira notre travail – est celle de l'existence d'une parenté transatlantique dépassant le cadre de fortuites homologies, une parenté délibérément construite ou du moins stratégiquement cultivée par ceux qu'on pourrait appeler les écrivains du Sud. Pour ainsi dire, nous pensons que l'adoption du modèle latino-américain par les romanciers africains est une entreprise intentionnelle et assumée, motivée par la ressemblance des espaces et la similarité des contextes socioanthropologiques. Ce qui nous amène à la question majeure de notre travail : quel(s) intérêt(s) pour le roman africain de recourir au modèle latino-américain? Quel est l'impact esthétique et idéologique du modèle latino-américain sur le roman africain? En un mot, comment interpréter le rapprochement des imaginaires africain et latino-américain mis en exergue par la production romanesque négro-africaine depuis au moins les années 1980 et au sein de l'espace francophone subsaharien? Trois propositions de réponses s'offrent à nous pour justifier l'entreprise des romanciers africains : le désir pour les écrivains africains d'échapper à la domination du centre que représente l'Occident les conduit à revoir leur projet esthétique et sinon à trouver de nouveaux modèles, au moins à les diversifier ; leur volonté de s'identifier à un modèle caractéristiquement plus proche les oriente vers l'univers latinoaméricain auquel ils peuvent reconnaître une parenté géographique, climatique, politicosociale, historique et culturelle ; la nécessité d'adopter une position nouvelle et crédible dans le champ littéraire qui est le leur se présente elle également comme une motivation valable dans l'adoption du modèle latino-américain. Soulignons que sur cette voie d'analyse nous rencontrons les articles de Barbara Dos Santos et de Florence Paravy. L'auto-identification des écrivains africains au modèle latino-américain est également ce que met en lumière Florence Paravy dans son article « Les écrivains africains en quête d'un tiers-monde » où elle soutient que l'Amérique latine se présente comme un miroir à travers lequel les Africains peuvent contempler leur image et réfléchir sur leur littérature44. Nous exploiterons ces analyses à partir d'un corpus déterminé selon les intérêts de notre analyse. Notre sujet se rapportera plus précisément au roman afro-francophone subsaharien du tournant des 1980 à 2015. Sept textes constitueront notre principal corpus d'étude : Les Sept solitudes de Lorsa Lopez45 et L'Etat honteux46 de Sony Labou Tansi ; Pelourinho47 de Tierno Monénembo ; Filles de Mexico48 de Sami Tchak ; Chronique d'une mort annoncée49 et L'Automne du Patriarche50 de Gabriel García Márquez ; Bahia de tous les saints51 de Jorge Amado. Un corpus secondaire comprenant des textes comme La Vie et demie52 de Sony Labou Tansi ; Les Coqs cubain chantent à minuit53 de Tierno Monénembo ; Le Paradis des chiots54 de Sami Tchak ; Cent ans de solitude55 de Gabriel García Márquez ; El Señor Presidente56 de Miguel Ángel Asturias, Ecue-Yamba-Ô57 et Concert baroque58 d'Alejo Carpentier, sera également exploiter afin d'enrichir notre étude. Bien entendu, d'autres romans n'appartenant à aucun de nos corpus seront souvent convoqués de temps à autre pour les besoins de l'analyse. 43 Barbara dos Santos, « Brésil-Afrique : l'influence du modernisme brésilien dans les littératures angolaise et mozambicaine », Op. cit. p. 147. 44 Florence Paravy, « Écrivains africains en quête d'un tiers monde », in Les lettres francophones, hispanophones, italophones et lusophones et la latinité. (Colloque international, Paris Ouest-Nanterre-La Défense, 20-21 mai 2010), Silène (revue en ligne du Centre de recherches Littérature et poétique comparées), 2011. URL : http://www.revue-silene.com/f/index.php?sp=colloque&colloque_id=9 45 Sony Labou Tansi, Les Sept solitudes de Lorsa Lopez, Paris, Seuil, 1985. 46 Sony Labou Tansi, L'Etat honteux, Paris, Seuil, 1981. 47 Tierno Monénembo, Pelourinho, Paris, Seuil, 1995. 48 Sami Tchak, Filles de Mexico, Mercure de France, Paris, 2008. 49 Gabriel García Márquez, Crónica de una muerte anunciada, Bogotá, Editorial La Oveja Negra, 1981. 50 Gabriel García Márquez, El Otoño del patriarca, Madrid, Espasa Calpe, [1975] 1993. 51 Jorge Amado, Bahia de tous les saints, Paris, Gallimard, [1935] 1938. 52 Sony Labou Tansi, La Vie et demie, Paris, Seuil, 1979. 53 Tierno Monénembo, Les Coqs cubains chantent à minuit, Paris, Seuil, 2015. 54 Sami Tchak, Le Paradis des chiots, Mercure de France, Paris, 2006. 55 Gabriel García Márquez, Cien años de soledad, Madrid, Real Academia Española, [1967] 2007. 56 Miguel Ángel Asturias, El Señor Presidente, Madrid, Alianza, [1946] 1992. 57 Alejo Carpentier, Écue-Yamba-Ó, Barcelona, Alfaguara, 1977. 58 Alejo Carpentier, Concierto barroco, Madrid, Ediciones Siglo XXI, 1978. - Avec les textes de Sony Labou Tansi, Tierno Monénembo et Sami Tchak, nous avons à notre disposition diverses orientations esthétiques qui nous permettent de globalement cerner les principales caractéristiques du recours au modèle latino-américain. Ils nous semblent bien indiquer pour mettre en valeur les différents clans que l'on peut retrouver dans la phratrie de l'imaginaire que nous abordons. Sony Labou Tansi dont la fortune littéraire est immense, en témoignent les nombreux travaux critiques suscités par son oeuvre, peut être considéré comme un écrivain « existentialiste », viscéralement attaché à la condition humaine. Ce qui le rapproche de Gabriel García Márquez dans une posture dialogique qui est l'une des premières à attirer l'attention sur la phratrie transatlantique. Non moins important pour les littératures africaines, bien qu'on puisse estimer qu'il ne bénéficie pas forcément du même intérêt critique que Sony Labou Tansi, Tierno Monénembo se caractérise plutôt comme un écrivain de la mémoire. Lié au thème de l'identité, la question de la mémoire est celle qui, de l'avis du romancier guinéen, est susceptible d'apporter des réponses conséquentes aux « amnésiques » rejetons de l'Afrique en vue de surmonter leur crise identitaire. En cela, il se reconnait un réel intérêt pour les écrivains latino-américains, « les Brésiliens surtout », confiet-il. C'est d'ailleurs à partir de cette relation entre identité et mémoire que Tierno Monénembo rencontre des écrivains comme Jorge Amado et Alejo Carpentier qui constituent tous deux des figures majeures de la littérature latino-américaine. Autre auteur désormais important pour les littératures africaines, Sami Tchak l'un des écrivains africains de la nouvelle génération particulièrement remarquable pour avoir « érigé l'obscène en catégorie esthétique » ainsi que le souligne Jacques Chevrier59. L'auteur togolais est souvent considéré comme un héritier de Sony Labou Tansi, rapport qu'il explique simplement par le recours à la même source : les littératures latino-américaines. Mais, à la différence de son aîné Congolais, l'écrivain togolais est plutôt friand de la critique sociale dans sa version contemporaine en Amérique latine. Les problèmes sociaux comme la misère et la violence urbaine, les inégalités de toutes sortes sont au centre de son oeuvre. - Notons qu'il s'agit d'un phénomène observable au-delà de l'espace francophone subsaharien. Il est par exemple possible de rapprocher des romanciers africains anglophones tels Syl Cheney-Coker et Ben Okri60 ; lusophones à l'image de Variato Cruz et José Eduardo Agualusa61 ou même de l'espace africain saharien avec Rachid Mimouni ou Tahar Ben Jelloun62, de l'univers latino-américain. Nous avons cependant préféré circonscrire notre étude à l'espace francophone subsaharien dans l'espoir de la rendre moins complexe et plus précise. Pour aborder notre corpus en vue d'un examen relativement complet de nos hypothèses de lecture, un ensemble d'outils méthodologique doit inévitablement être mobilisé. Ainsi avons-nous opté pour une systémique alliant, entre autres, la théorie des structures anthropologique à l'imaginaire élaborée Gilbert Durand 63 ; les théories intertextuelles qui n'ont cessé de se développer depuis Mikhaïl Bakhtine 64 et Gérard Genette65 jusqu'à Jean-Louis Cornille66 et Suzanne Lafont67 ; les théories postcoloniales promues entre autres par Edward Said68, Homi K. Bhabha69, Gayatri Chakravrty Spivack70, Jean-Marc Moura71 et Yves Clavaron72 ; la théorie du champ littéraire élaborée par Pierre Bourdieu et trouvant écho dans les travaux de Pascale Casanova sans oublier les théories transculturelles 60 Voir par exemple Brenda Cooper, Magical Realism in West African Fiction: Seeing with a Third Eye, New York, Routledge, 1998 ; Elizabeth Gackstetter, Nichols and Timothy R. Robbins, Pop Culture in Latin America and the Caribbean, Santa Barbara, ABC-CLIO Nous avons par exemple montré dans un travail précédent, notre mémoire de master, que l'oeuvre du romancier angolais, Les Femmes de mon père, s'inscrit dans un dialogisme significatif avec celle du Brésilien Moacyr Sciliar, L'Etrange naissance de Rafael Mendes. Mais, de façon encore plus significative, Barbara dos Santos expose le lien étroit contact qui lie la littérature africaine lusophone à la littérature latino-américaine, brésilienne en l'occurrence. Voir Barbara dos Santos, « Brésil-Afrique : l'influence du modernisme brésilien dans les littératures angolaise et mozambicaine », in Yves Clavaron, Jean-Marc Moura (sous la direction de), Les Empires de l'Atlantique, Bécherel, Les Perséides, 2012, pp. 143-154 ; Barbara dos Santos, « Échos amadiens en Afrique lusophone : la réception de l'oeuvre de Jorge Amado en Angola », Amerika [En ligne], 10 | 2014, mis en ligne le 22 juin 2014, consulté le 10 juillet 2015. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - auxquelles on imprimera les noms de Fernando Ortiz 73, Oswald de Andrade74 et Ángel Rama75. Nous y reviendrons un peu plus en détail dans le développement de notre analyse, aussi nous nous contentons d'une présentation sommaire de ces éléments théoriques. Rappelons une fois de plus que, sous le thème de la phratrie de l'imaginaire, nous avons l'ambition d'interroger les liens entre le roman africain et le roman latino-américain en vue d'en déterminer les enjeux. Justement consacrées à l'examen des différents modes de rapports entre textes, les théories intertextuelles nous apparaissent très bien indiquées pour déterminer la nature et la manifestation voire la fonction des relations entre les romans africain et latino-américain. A travers la théorie des structures anthropologiques de l'imaginaire, Gilbert Durand nous apprend que l'imaginaire découle aussi bien de notre univers psychique et individuel que de notre monde anthropologique et collectif. L'imaginaire s'enracine ainsi dans la culture ambiante des individus. De ce fait, la théorie mise en place par Gilbert Durand nous servira à montrer comment, la culture commune sédimentée par une histoire en partage contribue à édifier un imaginaire familier entre les continents africain et latino-américain. Nous tirerons des théories postcoloniales leur capacité à décrire et interpréter l'impact du fait colonial sur la pensée, la culture et les productions culturelles des espaces qui en ont été affectés (notamment les anciennes colonies cela se lit souvent de façon plus évidente) et les rapports entre ex-colonie et leur ancienne métropole qui restent marqués par ce fait. Pour compléter l'analyse sur les enjeux de l'orientation latino-américaine du roman africain, les théories du champ seront certainement d'un apport considérable. Reconnaissant avec Pierre Bourdieu que l'univers littéraire est un vaste champ où chaque choix opéré par un écrivain est une entreprise de positionnement, le choix des écrivains africains nous apparaît comme une stratégie dont l'enjeu majeur est l'acquisition de « la valeur spécifique qui a cours dans l'espace littéraire mondial ». Nous pourrons ainsi, avec l'aide des théories du champ, examiner les lois institutionnelles présidant au choix des romanciers africains que l'on peut envisager, en nous appuyant sur Pascale Casanova, comme une occasion d'échapper à Paris et d'inventer une dissidence esthétique76. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - l'Afrique, comme celle de l'Amérique latine, a créé une culture particulière et propice à l'élaboration d'une littérature singulière. Nous tenons surtout à montrer que les deux littératures en question poussent sur un fond commun de culture, révélant ce qu'on pourrait appeler une « médiathèque » commune. Prenant argument sur Carl Gustav Jung dont les travaux montrent que les imaginaires individuels s'enracinent dans l'inconscient collectif qui lui-même se construit sur la base d'un fond commun de culture 77 et en nous référant précisément à Gilbert Durand qui dévoile les structures anthropologiques à l'imaginaire78, il nous apparaît logique d'avancer que la médiathèque commune à l'Afrique et à l'Amérique latine produit des imaginaires dont la proximité pourrait justifier la connivence des écrivains. Sous le titre « le modèle latino-américain : entre parenté et influence », notre deuxième partie nous invite à la lecture strictement dialogique des textes de notre corpus afin de mettre en évidence l'expression intertextuelle de la phratrie. Nous y abordons, par étude de cas, le rapport aussi évident qu'ambigu qu'entretiennent les romans africains et latino-américains. L'idée de base est celle formulée plus haut c'est-à-dire la conception d'une parenté historique et culturelle qui prédispose à la connivence de l'imaginaire. Nous reconnaissons à cette parenté une influence remarquable sur l'orientation littéraire des écrivains, ce qui nous amène à traverser l'opposition parenté/influence pour parler de l'influence de la parenté qui régit l'écriture latino-américaine du roman africain. La question étant désormais de savoir comment se lit cette influence de la parenté dans les es, nous procéderons à un examen dialogique des textes de notre corpus suivant leurs affinités. De l'ordre de l'herméneutique, notre dernière partie est essentiellement axée sur les enjeux de la phratrie. Elle est le lieu d'une interrogation des réalités qui sous-tendent l'organisation de la phratrie, le lieu de la proposition d'une interprétation du phénomène que nous avons appelé la phratrie de l'imaginaire. Si la parenté des univers africain et latinoaméricain résulte en grande partie du processus historique, l'exploitation de cette parenté semble bien avoir des motivations esthétiques, idéologiques et stratégiques. 26 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - phratrie de l'imaginaire comme une collaboration entre littératures du Sud pour faire bloc face à l'hégémonie proclamée du Nord dans la République mondiale des lettres. 27 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - 28 On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - Partie I/ Histoire, culture et écriture des univers africain et ibéroaméricain. Introduction à la première partie : Les littératures africaines et latino-américaines en langues européennes ont beaucoup à voir avec l'histoire de l'impérialisme occidental. Leurs langues d'écriture – leur principal mode d'expression – et la place prépondérante accordée au traitement des questions liées à leur histoire politique respective sont certainement les aspects les plus évidents de cet état des faits. Mais, au-delà de la simple transmission linguistique et de sa constitution en thème quasi invariant de chacune de ces littératures, l'histoire impériale semble avoir un lien encore plus conséquent avec leurs univers, lien que nous tentons d'appréhender dans cette première partie de notre travail. Nous posons comme hypothèse que l'histoire politique et culturelle de l'Afrique et de l'Amérique latine a préfiguré la connivence des univers littéraires de ces deux espaces. Ce qui nous conduit logiquement à une question : dans quelle mesure la phratrie de l'imaginaire africain et latino-américain pourrait-elle trouver sa justification dans l'histoire individuelle et commune de leurs sociétés? C'est à cette question que nous tentons de répondre en quatre chapitres. D'abord, il nous importe de montrer comment l'histoire de l'expansion européenne, matérialisée par l'entreprise coloniale, bouleverse les représentations traditionnelles des sociétés africaines et américaines, comment elle rend complexe la représentation mentale de soi chez les indigènes en les installant dans une situation de double culture (autochtone/étrangère) avec laquelle ils doivent renégocier leur identité, leur rapport au monde, leur imaginaire. Nous observons ensuite dans quelle mesure l'intervention coloniale et la double culture qu'elle contribue à produire dans les espaces colonisés (autrement dit, la situation délicate dans laquelle elle place « les sujets colonisés ») rendent propice l'élaboration d'une littérature singulière qui finira elle-même par redessiner une histoire culturelle. Pour finir, nous nous employons à montrer que la phratrie de l'imaginaire trouve ses fondements dans « un fond commun de culture », une sorte de médiathèque en partage. - Chapitre I : Tissage historique de la culture en Afrique et en Amérique latine La colonisation occidentale, en Afrique comme en Amérique, a fondamentalement modifié la trajectoire historique et culturelle des populations indigènes. Vecteur des ambitions impérialistes d'une Europe en quête de ressources économiques mais aussi épistémiques et imaginaires pour se régénérer79, la colonisation recouvrait aussi bien des aspects politique et économique que culturel et esthétique 80. Ce qui aurait pu être une rencontre culturelle devint un choc entre de fragments de culture venus d'Europe et les cultures traditionnelles des indigènes tel que le présente Serge Gruzinski81 ou encore Bernard Mouralis82. Ce choc entre des cultures apparemment incompatibles entraînera une réorganisation de l'univers indigène et le bouleversement sera notable dans l'esprit des individus. I/ Colonisation et naissance d'une double culture La conquête territoriale de l'entreprise coloniale mise en oeuvre par l'Occident impliquait une conquête culturelle et morale, une conquête humaine. Autant les colons désiraient posséder les terres qu'ils découvraient, autant ils avaient l'ambition de dominer et de contrôler les âmes qui les peuplaient. Les thèses d'une anthropologie coloniale, « fondée sur les clichés déformants dressés par les voyageurs et les missionnaires et largement diffusés dans l'opinion par les publicistes »83, aideront les colons dans leur entreprise en la légitimant par un discours nettement infériorisant vis-à-vis des populations indigènes. 1. Le christianisme au service de l'idéologie coloniale Les missionnaires ont joué un rôle crucial dans l'expansion de l'idéologie coloniale. Dans un manichéisme religieux répartissant le monde selon le principe binaire chrétiens/païens, l'Église se représente les uples indigènes d'Afrique et d'Amérique comme des âmes égarées que les bons chrétiens occidentaux doivent ramener dans la lumière divine. 79 Edmundo O'Gorman explique que l'Amérique, au lieu d'avoir été découverte, a été inventée par l'Europe comme un espace utopique dont elle avait besoin pour, entre autres raisons, s'évader de la prison médiévale où, entre autres, la tenait le géocentrisme et de la scholastique. Edmundo O'Gorman, La Invención de América, México, Fondo de Cultura Económica, 1958 . 80 L'Orientalisme est l'occasion pour Edward Said de souligner que la colonisation occidentale touche autant les domaines politico-économiques qu'esthétiques et culturels. 81 Serge Gruzinski, La Colonisation de l'imaginaire, Paris, Gallimard, 1988. 82 Bernard Mouralis, Littérature et Développement, Paris, Silex / ACCT, 1984. On trouve Dieu non pas en le cherchant mais en se cherchant soi-même - UKM - Dans le contexte africain, elle favorisera l'expression d'une imagerie dépréciative de l'humanité du Noir qui, à ses yeux, est un être démoniaque, possédé par les forces obscures. La « version raciste de la malédiction de Cham »84 permet au christianisme colonial de se porter caution morale à l'esclavage des Noirs et fait presque de la déshumanisation de ces derniers un principe de chrétienté. Montesquieu ne manque pas de relever ce fait en dépeignant « ironiquement »85 l'incompatibilité de la foi chrétienne et l'idée d'une humanité du Noir dans le chapitre V du Livre XV de De l'esprit des lois où il traite justement de la question « de l'esclavage des nègres » : On ne peut se mettre dans l'idée que Dieu, qui est très sage, ait mis une âme, surtout une âme bonne, dans un corps tout noir. [] Il est impossible que nous supposions que ces gens-là soient des hommes, on commencerait à croire que nous ne sommes pas nous-mêmes chrétiens86.
8,291
2010AGPT0094_13
French-Science-Pile
Open Science
Various open science
2,010
Analyse des déterminants des attaques de Meligethes aeneus (Coleoptera, Nitidulidae) et de sa régulation biologique à l'échelle d'un paysage agricole : contribution à l'amélioration de la protection intégrée du colza
None
French
Spoken
7,592
13,490
L’influence positive de la complexité du paysage sur le taux de parasitisme des larves de méligèthes met en avant les leviers d’action potentiels qui existent à l’échelle du paysage pour maximiser la régulation biologique des ravageurs (voir point 2.2 ci-après). Cependant, nos travaux ont également montré une augmentation de la pression du ravageur et des dégâts avec la complexité du paysage et l’absence de relation de densité-dépendance entre le taux de 151 Chapitre 7. Discussion générale et perspectives parasitisme et l’abondance de l’hôte. Cette ambivalence de l’effet de la complexité du paysage met en évidence l’importance de considérer les différents niveaux trophiques, les types d’habitats impliqués, leurs effets réels sur les populations et des échelles de gestion plus larges (voir point 2.2). Il semble donc primordial de préciser les voies d’action de la complexité du paysage sur les différents niveaux trophiques et donc de tester l’ensemble des hypothèses sous-jacentes (évoquées précédemment) à cet effet positif des habitats seminaturels dans le paysage. Seule cette étape permettra d’identifier clairement le rôle de chaque habitat et pourra ainsi orienter les stratégies de gestion des populations de ravageurs maximisant la régulation biologique. Enfin, l’évaluation de la performance des indicateurs paysagers détaillée au chapitre 6 met en évidence des outils et des méthodologies utiles à la protection intégrée des cultures. De tels indicateurs paysagers peuvent permettre d’évaluer le risque d’infestation de méligèthes notamment dans des régions où le colza n’est encore pas ou peu cultivé. En effet, comme le colza est une culture en expansion, l’utilisation de ces indicateurs peut permettre d’estimer, dans des régions où il n’existe pas de recul sur cette problématique, les zones où la configuration paysagère exprime un risque important d’infestation ou un contrôle biologique efficace. De plus, ces indicateurs peuvent être utilisés pour concevoir et évaluer des paysages multifonctionnels. Selon Opdam et al. (2003), l’aménagement du paysage visant à intégrer un certain nombre de services écosystémiques nécessite de tels outils pour les phases de diagnostics et de co-conceptions avec les acteurs (pouvoirs publics, propriétaires, agriculteurs...). Ces indicateurs présentent également un intérêt en matière de recherche autour de la conception de stratégies innovantes de gestion des bioagresseurs. En effet, ces indicateurs paysagers peuvent également permettre de formuler des pistes de gestion et de nouvelles hypothèses autour des dynamiques de populations à des échelles plus larges que celles explorées dans notre étude. Nous faisons ici référence aux zones « refuges » pour le ravageur où l’action limitée des ennemis naturels permet de maintenir des populations de méligèthes importantes d’une année sur l’autre via des échanges d’individus entre paysages. De telles zones impliquent la nécessité d’y stimuler la régulation biologique des populations de ravageurs (notamment via un certain nombre de leviers mis en évidence précédemment) pour er les échanges d’individus entre des zones présentant des niveaux de régulation naturelle différents. 2.2 Ambivalence de l’effet de la complexité du paysage, métapopulation et stratégies de gestion à l’échelle régionale Nous avons évoqué précédemment l’importance de considérer l’ensemble des niveaux trophiques lorsque l’on cherche à optimiser les régulations naturelles dans les agroécosystèmes. Cette prise en compte permet de faire émerger des effets antagonistes ou ambivalents de la complexité du paysage du point de vue de la recherche de stratégies de gestion des populations. Notre aperçu de la bibliographie sur le sujet donné en section 1.3 (p. 147) montre bien que dans une part non négligeable d’études les ravageurs et leurs ennemis naturels ont trouvé un bénéfice dans l’augmentation de la complexité du paysage. Ainsi, plusieurs études ont montré un effet positif de la complexité du paysage sur les populations de 152 Paysages Complexes : Zones d’hivernation Complexité du paysage Infestation importante au printemps Régulation naturelle importante Nouvelle génération (peu importante après régulation) Paysages Simples: Année N Zones d’hivernation Infestation faible au printemps Paysages Complexes : Régulation naturelle plus faible Nouvelle génération importante Dispersion: Contrebalance les effets locaux positifs de la complexité sur la régulation Année N Année N + 1 Zones d’hivernation Infestation importante au printemps Régulation naturelle importante (peu importante après régulation)? Nouvelle génération Paysages Simples: (fécondité importante des femelles, pas de compétition pour les ressources) Année N+1 Zones d’hivernation Infestation faible au printemps Régulation naturelle plus faible Nouvelle génération importante (fécondité importante des femelles, pas de compétition pour les ressources) Temps (années) Figure 7. 2: Représentation schématique simplifiée des relations probables entre la complexité du paysage et les dynamiques de populations de méligèthes et leur régulation naturelle. Chapitre 7. Discussion générale et perspectives pucerons sur céréales (Sitobion avenae F., Metopolophium dirhodum Walk. et Rhopalosiphum padi L.) ainsi que sur leur taux de parasitisme (Roschewitz et al., 2005b ; Thies et al., 2005 ; Rand and Tscharntke, 2007). L’ensemble des résultats de notre travail montre que tant les populations de méligèthes que de parasitoïdes ont bénéficié de l’augmentation de la complexité du paysage. Ainsi, les situations paysagères dans lesquelles les plus forts taux de parasitisme ont été mesurés ont également montré les taux d’infestation de méligèthes les plus importants. Les cartes produites au chapitre 6 sur la base des valeurs des indicateurs paysagers mettent bien en évidence qu’une part importante de situations paysagères favorables aux infestations de méligèthes le sont également pour leur régulation biologique (i.e. taux de parasitisme > 70 %). Nos résultats ainsi que ceux de Thies et al. (2003) ne montrent aucun effet de l’abondance de l’hôte (i.e. les larves de méligèthes) sur le taux de parasitisme. Cet effet ambivalent de la complexité du paysage provient en partie du fait que le taux de parasitisme d’une année donnée influence les populations de ravageurs qui attaqueront les parcelles de colza l’année suivante. Ce décalage temporel entre l’action des parasitoïdes et l’effet potentiel de cette régulation sur la culture (de l'année suivante) laisse le champ libre à d’autres mécanismes influençant les dynamiques de populations du ravageur qui vont pouvoir compenser l’effet de la régulation naturelle effectuée localement une année donnée. Ainsi, l’effet ambivalent du paysage peut s’expliquer par l’arrivée de nouveaux individus qui viennent contrebalancer l’action de la régulation naturelle (Figure 7.2). Cette compensation s’opère très certainement avant l’hivernation par des dispersions d’individus de la nouvelle génération de méligèthes (i.e. qui émerge en juin/juillet des parcelles de colza) depuis des zones où les populations ont été pas ou moins bien régulées vers des zones de paysages complexes offrant alimentation et sites d’hivernation. En effet, les taux de parasitisme très importants observés dans les paysages complexes durant les deux années de notre étude impliquent une régulation efficace du ravageur à l’échelle locale (Chapitre 4 ; Chapitre 6). De plus, les infestations importantes de méligèthes au printemps, et du même ordre de grandeur pour les deux années de notre étude, suggèrent que la part importante régulée de la population de ravageur est en partie contrebalancée par l’arrivée de nouveaux individus qui permettent de maintenir un pool important de ravageurs dans ces paysages (Chapitre 2). Les parcelles de colza situées dans des paysages plus simples et ayant donc présenté des densités de populations de méligèthes adultes au prin plus faibles peuvent supporter des densités non négligeables de larves et donc de méligèthes de la nouvelle génération (Hokkanen, 2000 ; Chapitre 6). Nous faisons donc ici l’hypothèse que les individus de la nouvelle génération provenant de paysages avec une régulation naturelle moins efficace migrent vers des paysages plus complexes offrant des sites d’hivernation et participent ainsi à contrebalancer l’action de la régulation entre les années. Cette hypothèse semble en accord avec les capacités de dispersion importantes dont les méligèthes peuvent faire preuve. Ainsi, des expérimentations de capture-marquage-recapture ont permis d’estimer qu’ils étaient capables de parcourir à 1 à 3 km par jour et jusqu’à 12 km en deux jours (Taimr et al., 1967, Stechmann and Schütte, 1976). De plus, différentes études ont rapporté des captures importantes de méligèthes dans des vents de haute altitude durant l’été, suggérant des flux de migrations massives de la nouvelle génération sur de longues distances (Mauchline, 2003, Chapman et al., 2004). 153 Chapitre 7. Discussion générale et perspectives Cette hypothèse semble également en accord avec l’existence de zones d’asynchronie spatiale (mises en évidence dans le chapitre 6 sur la base d’indicateurs paysagers) entre des populations de ravageurs importantes et un contrôle biologique efficace à des échelles supérieures à celles explorées dans notre étude. De telles zones serviraient alors de sources de méligèthes permettant de réalimenter des paysages au sein desquels la majeure partie des populations du ravageur avait été régulée. Une étude récente (Kazachkova et al., 2007) sur la diversité génétique des populations de Meligethes aeneus prélevées dans différentes régions de Suède semble également en accord avec l’hypothèse formulée. Dans ce travail, les auteurs ont d’abord mis en évidence une faible structuration génétique des populations confirmant le flux de gènes important entre les populations et l’existence de dispersions d’individus sur de longues distances. Ils ont ainsi montré que des individus séparés de 5,3 km avaient la même distance génétique que des individus isolés de plus de 530 km et que les taux de migration d’individus entre régions étaient généralement très importants. Ces données suggèrent donc un flux de gènes substantiel et des distances de dispersion importantes entre les différentes populations de méligèthes. De plus, durant trois années consécutives, les auteurs ont comparé la variabilité génétique entre des individus de la nouvelle génération prélevés en automne, avant l’hivernation et des individus prélevé au printemps de l’année d’après, c'est-à-dire après l’hivernation sur les mêmes sites. Les analyses de variances moléculaires ont révélé que la part de variabilité expliquée par la période de prélèvement était la plus importante, indiquant des flux de gènes considérables entre ces deux dates de prélèvement pour une même génération (Kazachkova et al., 2007). Enfin, de manière plus générale, l’hypothèse émise ici sur les échanges de populations de méligèthes qui semble expliquer les effets ambivalents du paysage, semble en accord avec la théorie des métapopulations. Une métapopulation est composée d’un ensemble de souspopulations séparées spatialement dans des patches d’habitats différents et capables d’échanger des individus. Ces processus permettent à une espèce donnée de persister à l’échelle régionale puisque les phénomènes d’extinctions locales sont compensés par les processus de dispersion et de migration à des échelles plus larges. Le modèle de métapopulation de type « source / puits » apparait particulièrement réaliste par rapport aux effets ambivalents mis en évidence dans notre étude puisqu’il implique des habitats de qualités différentes avec des populations locales ayant des taux d’extinction importants qui ne peuvent persister sans l’immigration de nouveaux individus provenant d’autres populations. La théorie des métapopulations a été développée initialement par Levins (1969) pour évaluer des stratégies d’application de produits insecticides pour lutter contre des insectes ravageurs des cultures. Il cherchait plus particulièrement à savoir s’il était plus efficace de déclencher les traitements de manière synchrone ou asynchrone dans un espace donné. Dans son étude, Levins conclut que des traitements simultanés permettraient une réduction plus importante des populations et un meilleur contrôle du ravageur que des traitements asynchrones qui permettraient alors aux ravageurs de trouver localement des refuges et de recoloniser des taches d’habitats. La réduction des populations de manière simultanée, c'est-àdire la même année, semble donc être une piste intéressante de gestion des populations. Ceci 154 A B Figure 7. 3: Efficacité (A) et marges de manœuvre (B) relatives à la mise en place de pratiques à des échelles locales pour préserver la biodiversité et stimuler les services écosystèmiques par rapport au contexte paysager (D’après Tscharntke et al., 2005). Les auteurs considèrent que l’efficacité se mesure par l’augmentation de la biodiversité ou des services imputable aux pratiques par comparaison avec des sites sans aménagement. Les auteurs ont classé les paysages en 3 types différents : extrêmement simplifié (< 1% d’habitats semi-naturels), simple (entre 1-20 % d’habitats semi-naturels), et complexe (> 20 % d’habitats semi-naturels ). L’efficacité des pratiques locales est considérée comme meilleure et les marges de manœuvre plus importantes dans les paysage simples. En effet, dans les paysages extrêmement simplifiés, le pool d’espèces est structurellement trop faible pour permettre une bonne efficacité des pratiques locales. Dans les paysages complexes, l’efficacité des pratiques locales est également érée comme faible car la biodiversité et les services écosystèmique sont déjà importants (e.g. taux de parasitisme dans notre étude). Chapitre 7. Discussion générale et perspectives implique la restauration et l’optimisation des fonctions de régulation naturelle des ravageurs dans les agroécosystèmes particulièrement dans les paysages « refuges » pour le ravageur. L’hypothèse du niveau intermédiaire de complexité du paysage, formulée par Tscharntke et al. (2005) (“The intermediate landscape-complexity hypothesis”), suggère une meilleure efficacité des stratégies de gestion à l’échelle locale dans des paysages simples (ou de complexité intermédiaire) que dans des paysages complexes ou extrêmement simplifiés (Figure 7.3 ; Chapitre 1). Dans cette hypothèse les auteurs différencient des paysages extrêmement simplifiés (< 1% d’habitats semi-naturels ; “cleared” sur la Figure 7.3), des paysages simples ou de complexité intermédiaire (entre 1-20 % d’habitats semi-naturels ; “simple” sur la Figure 7.3), et des paysages complexes (> 20 % d’habitats semi-naturels ; “complex” sur la Figure 7.3). Ainsi, les marges de manœuvre relatives à la mise en place de pratiques visant à stimuler la régulation naturelle des ravageurs par exemple, semblent plus importantes dans des paysages simples que dans des paysages extrêmement simplifiés ou complexes (Figure 7.3). Cette hypothèse correspond aux résultats de nos travaux sur la régulation naturelle des populations de méligèthes. En effet, dans notre zone d’étude les paysages complexes arborent déjà une régulation naturelle importante et la mise en place de stratégies de gestion basée sur l’implantation de bordures fleuries ou sur une réduction du travail du sol post-récolte par exemple, pourrait permettre d’optimiser la régulation mais n’aurait globalement que peu d’effet en comparaison de la régulation importante préexistante (Chapitre 4 ; Chapitre 6). En revanche, dans des paysages ayant des niveaux intermédiaires de complexité avec une régulation naturelle moins importante (e.g. zones refuges), les marges de manœuvre semblent plus importantes et la mise en place de telles stratégies de gestion devrait permettre d’augmenter la régulation naturelle à l’échelle locale régionale . L’effet ambivalent de la complexité du paysage (impliquant la dispersion d’individus entre des paysages avec des niveaux de régulation différents), la théorie des métapopulations, ainsi que des marges de manœuvre plus importantes dans les paysages plus simples, mettent en évidence la nécessité de développer des stratégies de gestion à des échelles spatiales plus larges que celles explorées dans notre étude (e.g. échelle régionale, “area-wide pest management”). Le déploiement de stratégies de gestion à l’échelle régionale devrait permettre de prendre en compte les dynamiques de populations de ravageurs et d’ennemis naturels et de limiter les échanges importants de populations de ravageurs venant diminuer l’effet de la régulation naturelle observée localement une année donnée. Paradoxalement, une optimisation de la régulation naturelle dans des paysages plus simples, où les populations de méligèthes adultes au printemps sont en effectifs plus faibles apparait comme une piste intéressante pour limiter les migrations d’individus (i.e. nouvelle génération) entre paysages et permettre une meilleure gestion des populations à l’échelle régionale (Figure 7.3). 155 Chapitre 7. Discussion générale et perspectives 3 Perspectives 3.1 Etude des processus de dispersion des populations de ravageurs et de leurs ennemis naturels à différentes échelles Il serait intéressant de poursuivre notre travail notamment sur les processus de dispersion des populations à différentes échelles. Tout d’abord, l’étude de la dispersion des populations de méligèthes entre les sites d’émergence printanière et les parcelles de colza ainsi que l’étude de la dispersion de la nouvelle génération vers les sites d’hivernation semblent deux étapes importantes à étudier pour une meilleure compréhension des dynamiques des (méta)populations et pour prolonger notre travail. Si la première étape a été plutôt bien étudiée, notamment par notre étude, la seconde en revanche constitue une inconnue primordiale qu’il reste encore à explorer. En effet, il est connu qu’après l’émergence la nouvelle génération de méligèthe se nourrit sur un certain nombre de plantes à fleurs pendant l’été (observations personnelles ; Y. Ballanger, com. pers.) mais aucune donnée n’est ensuite disponible sur leurs comportements jusqu’à l’émergence des sites d’hivernation au printemps suivant. L’effet ambivalent du paysage observé sur notre réseau de parcelles suggère des migrations d’individus de la nouvelle génération entre paysages simples et complexes. Il serait donc intéressant d’utiliser des outils de génétique des populations (marqueurs microsatellites, AFLP...) ou de suivi des populations (radars, techniques isotopiques...) pour produire des connaissances sur les phénomènes de dispersion et de migration des populations de méligèthes. Les outils développés en génétique des populations permettent d’estimer la structure génétique des populations et ainsi d’estimer les migrations potentielles et les flux de gène entre populations. Différentes études récentes ont ainsi mis en évidence de faibles différenciations génétiques entre populations pour différentes espèces d’insectes ravageurs suggérant des processus de migration sur de longues distances (Franck et al., 2007 ; Dalmon et al., 2008). Une étude récente (Chapman et al., 2010) a étudié les processus de migration de différentes espèces de lépidoptères en combinant les résultats issus de radars entomologiques verticaux, permettant d’analyser les populations d’insectes migrant jusqu’à 1200 m au-dessus du sol et leur comportement de dispersion, et un modèle de dispersion atmosphérique qui simule le transport de particules aériennes. Ces auteurs ont ainsi mis en évidence des processus de migration importants (jusqu’à 2000 km) entre les sites de reproduction et d’hivernation. Les mouvements de prospection des parasitoïdes qui s’opèrent à des échelles plus fines entre la parcelle et l’environnement parcellaire immédiat, pourraient être facilement étudiés à l’aide de techniques de marquage utilisant des éléments traces comme le rubidium, le strontium, le césium, le manganèse ou l’iridium (Lavandero et al., 2004). Le marquage utilisant le rubidium est celui que l’on retrouve le plus dans la bibliographie (Hagler et Jackson, 2001). Il est considéré comme n’ayant pas d’impact sur la longévité et les comportement des parasitoïdes à faibles doses (Lavandero et al., 2004). Ce genre de technique est relativement simple à mettre en pratique est consiste à augmenter artificiellement le niveau 156 Chapitre 7. Discussion générale et perspectives naturel de rubidium dans les organismes étudiés soit en marquant directement les populations d’insectes ravageurs ou d’ennemis naturels par pulvérisation de la solution, soit en marquant un habitat spécifique comme un bord de champ qui marquera alors les organismes venus se nourrir du pollen ou du nectar par exemple. Les teneurs en rubidium des individus capturés en dehors du site de lâcher ou de marquage peuvent ensuite être analysées et a insi révéler les mouvements potenti els des individus. Ce genre d’approche est souvent utilisé pour étudier les mouvements des parasitoïdes entre les abords d’une parcelle et la parcelle. Ainsi Lavandero et al. (2005) et Scarratt et al. (2008) ont montré que cette technique permettait de suivre les mouvements de prospection des parasitoïdes entre des bordures fleuries et des parcelles cultivées. Il serait donc intéressant d’étudier la dispersion et les mouvements de prospection des parasitoïdes par deux approches différentes : (i) par marquage des individus à l’émergence dans les parcelles de céréales et capture dans les parcelles de colza environnantes pour tudier les distances de dispersion entre sites d’émergence et sites de reproduction ; (ii) par marquage des ressources florales dans les habitats semi-naturels de l’environnement paysager immédiat d’une parcelle de colza et capture dans la parcelle contiguë pour étudier les comportements de prospection alimentaire (ou “foraging”). 3.2 Modélisation La précision de paramètres importants du cycle de vie et des comportements du ravageur et de leurs ennemis naturels (e.g. mortalité hivernale, distance de dispersion,...) pourrait permettre de développer des approches de modélisation spatialement explicites pour simuler les dynamiques d’attaques de méligèthes et leur régulation naturelle en fonction de données climatiques et de la structure d’un paysage. De telles approches pourraient permettre d’évaluer différentes stratégies de gestion des populations allant de l’aménagement de l’environnement paysager immédiat à des stratégies de gestion à l’échelle régionale. Ainsi, plusieurs études récentes ont modélisé l’effet de l’environnement paysager à différentes échelles sur la régulation naturelle des ravageurs (Bianchi et Wäckers, 2008 ; Vollhardt et al., 2010 ; Zhang et al., 2010). Un modèle développé par Bianchi et Wäckers (2008) a ainsi montré que l’effet positif des bandes fleuries en bordure de parcelle sur les populations de parasitoïdes était dû à l’augmentation de la longévité des individus et à l’attraction d’individus venant du paysage environnant. Vollhardt et al., (2009) ont testé l’influence de la ressource en fleur sur une espèce de parasitoïde des pucerons se nourrissant à la fois de nectar et de miellat à l’aide d’un modèle individu-centré. Cette étude a permis de montrer que la ressource en nectar augmentait la longévité des parasitoïdes et le taux de parasitisme lorsque les populations de pucerons étaient en faible densité dans la parcelle. Une distribution aléatoire de la ressource en fleur au sein de la parcelle est alors apparue comme la meilleure stratégie pour augmenter la longévité et le taux de parasitisme que les bandes fleuries en bordures ou au sein de la parcelle. Enfin, Zhang et al. (2010) ont cherché les meilleures configurations spatiales entre habitats cultivés et non-cultivés pour augmenter les services de régulation biologique et ont quantifié les différentes stratégies en termes économiques pour des systèmes conventionnels et biologiques. Les auteurs ont ainsi montré que pour les systèmes biologiques, l’augmentation de la surface en habitats semi-naturels se traduisait 157 Chapitre 7. Discussion générale et perspectives systématiquement par une augmentation de la marge économique pour l’agriculteur. La stratégie la plus avantageuse en terme économique étant obtenue avec une faible surface d’habitats semi-naturels répartis de manière aléatoire dans le paysage (i.e. en « archipels »). 3.3 Indicateurs paysagers et conception de paysages fonctionnels Le développement de paysages multifonctionnels nécessite la construction d’indicateurs permettant de relier les caractéristiques du paysage aux biens et aux services qu’il rend. Les méthodes et les résultats présentés dans ce travail peuvent servir de base au développement de paysages permettant d’optimiser la fonction de régulation des ravageurs. Dans notre approche s’intéressant à un nombre limité d’espèces, nous avons mis en évidence des indicateurs paysagers performants relativement simples et donc facilement interprétables du fait de leur lien avec les propriétés et le cycle de vie des organismes étudiés. Cependant, la conception de paysages fonctionnels implique d’intégrer les effets du contexte paysager sur les diverses communautés de bioagresseurs et de leurs ennemis naturels, soulevant ainsi un certain nombre de difficultés méthodologiques. La diversité des caractéristiques de ces organismes, des facteurs influençant les dynamiques de population et des échelles spatiales impliquées, ainsi que les différences de réponse des organismes au contexte paysager, laissent entrevoir les difficultés associées à la conception d’indicateurs fiables et de paysages fonctionnels. Nous proposons ici un cadre de travail général qui pourrait orienter la conception de paysages fonctionnels du point de vue de leur régulation. En se basant sur les connaissances issues de la bibliographie ou de dires d’experts, nous pourrions d’abord classer les espèces de bioagresseurs et d’ennemis naturels selon leurs profils écologiques de manière à limiter le nombre d’expérimentations nécessaires et à faciliter le passage à la communauté. L’idée ici serait de retenir relativement peu de critères mais qui permettraient de bien discriminer les profils entre eux. Cette étape permettrait en effet de faciliter les extrapolations et les généralisations entre espèces. Différentes classes de critères peuvent être utilisées pour déterminer ces profils. La distance de dispersion (différentes classes) semble être un critère important puisqu’il conditionnera les échelles spatiales pour lesquelles les espèces vont répondre à la structuration des paysages. Ensuite, les types d’habitat (cultivés et/ou non-cultivés) nécessaires à la réalisation du cycle de vie des espèces étudiées semblent être des éléments importants à prendre en compte pour classer les espèces. Enfin, la surface d’habitat (différentes classes) nécessaire pour maintenir une population minimum (à définir en fonction des objectifs) semble également un critère important pour classer les différentes espèces surtout pour les ennemis naturels. La deuxième étape d’un tel travail consisterait en la construction d’indicateurs permettant de relier les caractéristiques des différents profils écologiques des arthropodes aux propriétés du paysage et aux échelles spatiales pertinentes. Ainsi, différents travaux ont proposé la construction d’indicateurs paysagers permettant d’intégrer les caractéristiques d’une espèce aux propriétés d’un paysage. Verboom et al. (2001) ont par exemple proposé un indice de connectivité pour une espèce donnée reliant les caractéristiques paysagères aux capacités de dispersion de l’espèce depuis une tache d’habitat donnée. Cet indice se calcule pour une tache i par la somme des taches d’habitats favorables autour de la tache i pondérée par la surface de 158 Chap itre 7. Discussion générale et perspective s chaque tache et par leur éloignement à la tache i. La contribution de chaque tache à une distance donnée décroit exponentiellement avec les capacités de dispersion de l’espèce étudiée. En moyennant les valeurs prises par cet indice dans l’ensemble des taches à l’échelle d’un paysage il est ainsi possible d’obtenir une valeur de la connectivité moyenne du paysage pour l’espèce donnée. Il est ensuite possible de calculer de tels indicateurs pour l’ensemble des grands profils et leurs paramètres identifiés au préalable. Enfin, une étape d’agrégation à l’échelle du paysage de l’ensemble des indicateurs calculés pour chaque profil peut permettre de dégager des tendances générales et ainsi d’évaluer un paysage donné pour l’ensemble des profils. A chaque étape du travail, l’évaluation des indicateurs pour chaque profil et pour l’ensemble des profils peut être réalisée à l’aide de données issues de relevés de terrain et de la méthodologie présentée au chapitre 6 de notre étude en intégrant par exemple des seuils d’infestation ou de régulation. La prise en compte d’autres critères que la régulation des ravageurs comme la conservation d’espèces patrimoniales ou d’autres services écosystémiques comme la pollinisation, devrait être également intégrée pour permettre une évaluation plus systémique des scénarios paysagers. 159 REFERENCES Référence s Références Alford, D.V., Nilsson C., Ulber B., 2003. Insect pests of oilseed rape crops. In D. V. Alford (Ed.), Biocontrol of oilseed rape pests (pp. 9–41). Blackwell Science, Oxford, UK. Altieri, M. A., and Schmidt, L. L. 1986. The dynamics of colonizing arthropod communities at the interface of abandoned, organic and commercial apple orchards and adjacent woodland habitats. Agriculture, Ecosystems & Environment 16, 29-43. Altieri, M.A., 1999. The ecological role of biodiversity in agroecosystems. Agriculture, Ecosystems & Environment 74, 19-31. Altieri, M.A., Nicholls, C.I., 2003. Soil fertility management and insect pests: harmonizing soil and plant health in agroecosystems. Soil & Tillage Research 72, 203-211. Andow, D. A., and Risch, S. J. 1985. Predation in diversified agroecosystems: relations between a coccinellid predator Coleomegilla maculata and its food. J. Appl. Ecol. 22, 357-372. Arrignon, F., Deconchat, M., Sarthou, J.P., Balent, G., Monteil, C., 2007. Modelling the overwintering strategy of a beneficial insect in a heterogeneous landscape using a multi-agent system. Ecological Modelling 205, 423-436. Aubertot, J.N., Barbier, J.M., Carpentier, A., Gril, J.J., Guichard, L., Lucas, P., Savary, S., Savini, I., Voltz, M., 2005. Pesticides, agriculture et environnement. Reduire l'utilisation des pesticides limiter leurs impacts environnementaux. Rapport d'expertise scientifique collective, INRA et CEMAGREF. Aviron, S., Burel, F., Baudry, J., Schermann, N., 2005. Carabid assemblages in agricultural landscapes: impact of habitat features, landscape context at different spatial scales and farming intensity. Agriculture, Ecosystems and Environment 108, 205-217. Baessler, C., Klotz, S., 2006. Effects of changes in agricultural land-use on landscape structure and arable weed vegetation over the last 50 years. Agriculture, Ecosystems & Environment 115, 43-50. Baguette, M., Hance, T., 1997. Carabid beetles and agricultural practices: influence of soil ploughing. Biological Agriculture & Horticulture 15, 185-190. Baguette, M., Van Dyck, H., 2007. Landscape connectivity and animal behavior: functional grain as a key determinant for dispersal. Landscape Ecology 22, 1117-1129. Bajwa, W.I., Kogan, M., 2004. Cultural practices: springboard to IPM. Integrated pest management: potential, constraints and challenges. CABI Publishing, Wallingford UK. Balachowsky, A. S., 1963. Traite d’Entomologie appliquée à l’Agriculture. Tome I. Coleoptera (II: Second volume), Masson et Cie, Paris. Barbottin, A., Makowski, D., Bail, M.l., Jeuffroy, M.H., Bouchard, C., Barrier, C., 2008. Comparison of models and indicators for categorizing soft wheat fields according to their grain protein contents. European Journal of Agronomy 29, 175-183. Basedow, T. 1990. The frequency of aphids and their natural enemies in sugarbeet fields in relation to different factors of intensive farming. Verhandlungen der Gesellschaft fur Okologie 19, 170-176. 160 Références Bauerfeind, S.S., Theisen, A., Fischer, K., 2009. Patch occupancy in the endangered butterfly Lycaena helle in a fragmented landscape: effects of habitat quality, patch size and isolation. Journal of Insect Conservation 13, 271-277. Belder, E.d., Elderson, J., Brink, W.J.v.d., Schelling, G., 2002. Effect of woodlots on thrips density in leek fields: a landscape analysis. Agriculture, Ecosystems & Environment 91, 139-145. Bengtsson J., Ahnstrom, J., Weibull, A.C., 2005. The effects of organic agriculture on biodiversity and abundance: a meta-analysis. Journal of Applied Ecology 42, 261-269. Bengtsson, J., Angelstam, P., Elmqvist, T., Emanuelsson, U., Folke, C., Ihse, M., Moberg, F., Nystrom, M., 2003. Reserves, resilience and dynamic landscapes. Ambio 32, 389-396. Berndt, L.A., Wratten, S.D., Scarratt, S.L., 2006. The influence of floral resource subsidies on parasitism rates of leafrollers (Lepidoptera: Tortricidae) in New Zealand vineyards. Biological Control 37, 50-55. Berryman, A.A., Hawkins, B.A., 2006. The refuge as an integrating concept in ecology and evolution. Oikos 115, 192-196. Bianchi, F., van der Werf, W., 2004. Model evaluation of the function of prey in non-crop habitats for biological control by ladybeetles in agricultural landscapes. Ecological Modelling 171, 177-193. Bianchi, F.J.J.A., Booij, C.J.H., Tscharntke, T., 2006. Sustainable pest regulation in agricultural landscapes: a review on landscape composition, biodiversity and natural pest control. Proceedings of the royal society 273, 1715-1727. Bianchi, F.J.J.A., Wackers, F.L., 2008. Effects of flower attractiveness and nectar availability in field margins on biological control by parasitoids. Biological Control 46, 400-408. Bianchi, F.J.J.A., Werf, W.v.d., 2003. The effect of the area and configuration of hibernation sites on the control of aphids by Coccinella septempunctata (Coleoptera: Coccinellidae) in agricultural landscapes: a simulation study. Environmental Entomology 32, 1290-1304. Blazejewska, A. 1958. Zimowanie slodyszka rzepakowego (Meligethes aeneus Fabr.). Studia Societatis Scientiarum Torunensis 4, 5-30. Blight, M.M., Smart, L.E., 1999. Influence of visual cues and isothiocyanate lures on capture of the pollen beetle, Meligethes aeneus in field traps. Journal of Chemical Ecology 25, 1501-1516. Bockstaller, C., Guichard, L., Makowski, D., Aveline, A., Girardin, ., Plantureux, S., 2008. Agri-environmental indicators to assess cropping and farming systems. A review. Agronomy for Sustainable Development 28, 139-149. Bommarco, R., 1999. Feeding, reproduction and community impact of a predatory carabid in two agricultural habitats. Oikos 87, 89-96. Booij, C. J. H., and Noorlander, J. 1992. Farming systems and insect predators. Agric. Ecosyst. Environ. 40, 125-135. Brewer, M.J., Struttmann, J.M., Mornhinweg, D.W., 1998. Aphelinus albipodus (Hymenoptera: Aphelinidae) and Diaeretiella rapae (Hymenoptera: Braconidae) parasitism on Diuraphis noxia (Homoptera: Aphididae) infesting barley plants differing in plant resistance to aphids. Biological Control 11, 255-261. 161 Références Broatch, J. S., Dosdall, L. M., O'Donovan, J. T., Harker, K. N., and Clayton, G. W. 2010. Responses of the specialist biological control agent, Aleochara bilineata, to vegetational diversity in canola agroecosystems. Biol. Control 52, 58-67. Brooks, D. R., Bohan, D. A., Champion, G. T., Haughton, A. J., Hawes, C., Heard, M. S., Clark, S. J., Dewar, A. M., Firbank, L. G., Perry, J. N., Rothery, P., Scott, R. J., Woiwod, I. P., Birchall, C., Skellern, M. P., Walker, J. H., Baker, P., Bell, D., Browne, E. L., Dewar, A. J. G., Fairfax, C. M., Garner, B. H., Haylock, L. A., Horne, S. L., Hulmes, S. E., and Mason, N. S. 2003. Invertebrate responses to the management of genetically modified herbicide-tolerant and conventional spring crops. I. Soil-surface-active invertebrates. Philos.Trans. R. Soc. Lond. B Biol. Sci. 358, 1847-1862. Bruyn, L. d., Scheirs, J., and Verhagen, R. 2002. Nutrient stress, host plant quality and herbivore performance of a leaf-mining fly on grass. Oecologia 130, 594-599. Büchi R., 2002. Mortality of pollen beetle (Meligethes spp.) larvae due to predators and parasitoids in rape fields and the effect of conservation strips. Agriculture, Ecosystems and Environment 90, 255-263. Büchs, W. 2003. Impact of On-Farm Landscape Structures and Farming Systems on Predators. In “Biocontrol of Oilseed Rape Pests” (Alford D.V. Ed), pp 245-278. Blackwell Science, Oxford,UK. Büchs, W., Harenberg, A., and Zimmermann, J. 1997. The invertebrate ecology of farmland as a mirror of the intensity of the impact of man? An approach to interpreting results of field experiments carried out in different crop management intensities of a sugar beet and an oil seed rape rotation including set-aside. Biol. Agric. Hortic. 15, 83-107. Bunce, R. G. H., Metzger, M. J., Jongman, R. H. G., Brandt, J., Blust, G. d., Elena-Rossello, R., Groom, G. B., Halada, L., Hofer, G., Howard, D. C., Kovar, P., Mucher, C. A., Padoa-Schioppa, E., Paelinx, D., Palo, A., Perez-Soba, M., Ramos, I. L., Roche, P., Skanes, H., and Wrbka, T. 2008. A standardized procedure for surveillance and monitoring European habitats and provision of spatial data. Landscape Ecology 23, 11-25. Burel F, Baudry J 1999. Ecologie du paysage: concepts, méthodes et applications, Lavoisier, Paris Burnham KP, Anderson DR 2002 Model selection and multimodel inference: a practical information–theoretic approach, 2nd edn. Springer, New York Carcamo, H.A., 1995. Effect of tillage on ground beetles (Coleoptera: Carabidae): a farmscale study in Central Alberta. Canadian Entomologist 127, 631-639. Carcamo, H.A., Herle, C.E., Otani, J., McGinn, S.M., 2009. Cold hardiness and overwintering survival of the cabbage seedpod weevil, Ceutorhynchus obstrictus. Entomologia Experimentalis et Applicata 133, 223-231. Carrascal, L.M., Galvan, I., Gordo, O., 2009. Partial least squares regression as an alternative to current regression methods used in ecology. Oikos 118, 681-690. Carre G., 2008. Biodiversité, paysages et conservation de la communauté d’abeilles dans les agroécosystèmes. Thèse de Doctorat. Université d’Avignon et des Pays du Vaucluse. 162 Références Casas, J., Driessen, G., Mandon, N., Wielaard, S., Desouhant, E., Van Alphen, J., Lapchin, L., Rivero, A., Christides, J.P., Bernstein, C., 2003. Energy dynamics in a parasitoid foraging in the wild. Journal of animal ecology 72, 691-697. Chabert, A., Beaufreton, C., 2005. Impact of some agricultural practices on carabidae beetles. Bulletin OILB/SROP 28, 101-109. Champeaux, C., 2006. Recours a l’utilisation de pesticides en grandes cultures: evolution de l’indicateurs de frequence de traitements au travers des enquetes « pratiques culturales » du SCEES entre 1994 et 2001. Rapport INRA-Ministere de l’agriculture et de la peche. Chan, K. Y. 2001. An overview of some tillage impacts on earthworm population abundance and diversity implications for functioning in soils. Soil Tillage Res. 57, 179-191. Chapman, J.W., Nesbit, R.L., Burgin, L.E., Reynolds, D.R., Smith, A.D., Middleton, D.R., Hill, J.K., 2010. Flight Orientation Behaviors Promote Optimal Migration Trajectories in High-Flying Insects. Science 327, 682-685. Chapman, J.W., Reynolds, D.R., Smith, A.D., Smith, E.T., Woiwod, I.P., 2004. An aerial netting study of insects migrating at high altitude over England. Bulletin Of Entomological Research 94, 123-136. Chardon, J.P., Adriaensen, F., Matthysen, E., 2003. Incorporating landscape elements into a connectivity measure: a case study for the Speckled wood butterfly (Pararge aegeria L.). Landscape Ecology 18, 561-573. Chatterjee, S., Price, B., 1991. Regression Analysis by Example, 2nd edn. New York: Wiley. Chong, I. G., and Jun, C. H. 2005. Performance of some variable selection methods when multicollinearity is present. Chemometrics and Intelligent Laboratory Systems 78, 103-112. Clough Y, Kruess A, Tscharntke T 2007. Local and landscape factors in differently managed arable fields affect the insect herbivore community of a non-crop plant species. Appl Ecol 44:22-28 Clough, Y., Kruess, A., and Tscharntke, T. 2007. Organic versus conventional arable farming systems: functional grouping helps understand staphylinid response. Agric. Ecosyst. Environ. 118, 285-290. Clough, Y., Kruess, A., Kleijn, D., and Tscharntke, T. 2005. Spider diversity in cereal fields: comparing factors at local, landscape and regional scales. J. Biogeogr. 32, 2007-2014. Colnenne, C., Meynard, J.M., Reau, R., Justes, E., Merrien, A., 1998. Determination of a critical nitrogen dilution curve for winter oilseed rape. Annals Of Botany 81, 311-317. Cook, R.J., 2006. Toward cropping systems that enhance productivity and sustainability. Proceedings of the National Academy of Sciences of the United States of America 103, 18389-18394. Corbett, A., Rosenheim J.A., 1996. Impact of a natural enemy overwintering refuge and its interaction with the surrounding landscape. Ecological Entomology 21, 155-164. Costanza, R., Arge, R.d., Groot, R.d., Farber, S., Grasso, M., Hannon, B., Limburg, K., Naeem, S., O'Neill, R.V., Paruelo, J., Raskin, R.G., Sutton, P., Belt, M.v.d., 1997. The value of the world's ecosystem services and natural capital. Nature (London) 387, 253260. 163 Références Craig, T. P., and Ohgushi, T. 2002. Preference and performance are correlated in the spittlebug Aphrophora pectoralis on four species of willow. Ecol. Entomol. 27, 529540. Cronin J. T., Reeve j. D., 2005. Host-parasitoïd spatial ecology: a plea for a landscape-level synthesis. Proceedings of the royal society 272, 2225-2235. Cross, J.V., Solomon, M.G., Babandreier, D., Blommers, L., Easterbrook, M.A., Jay, C.N., Jenser, G., Jolly, R.L., Kuhlmann, U., Lilley, R., Olivella, E., Toepfer, S., Vidal, S., 1999. Biocontrol of pests of apples and pears in northern and central Europe: 2. Parasitoids. Biocontrol Science and Technology 9, 277-314. Daily, G C., Matson, P.A., 2008. Ecosystem services: from theory to implementation. Proceedings of the National Academy of Sciences of the United States of America 105, 9455-9456. Dalmon, A., Halkett, F., Granier, M., Delatte, H., Peterschmitt, M., 2008. Genetic structure of the invasive pest Bemisia tabaci: evidence of limited but persistent genetic differentiation in glasshouse populations. Heredity 100, 316-325. Danks, H.V., 1996. The wider integration of studies on insect cold-hardiness. European Journal Of Entomology 93, 383-403. Davies, K.E., Margules, C.R., Lawrence, J.E. 2000. Which traits of species predict population declines in experimental forest fragments? Ecology 81:1450–1461. De Bruyn, L., Scheirs, J., Verhagen, R., 2002. Nutrient stress, host plant quality and herbivore performance of a leaf-mining fly on grass. Oecologia 130, 594-599. Deguine, J.P., Ferron, P., Russell, D., 2008. Sustainable pest management for cotton production. A review. Agronomy for Sustainable Development 28, 113-137. Dejoux, J.F., 1999. Evaluation d'itineraires techniques du colza d'hiver en semis tres precoces. Analyse agronomique, consequences environnementales et economiques. Memoire de these, INA P-G, Paris, France. Delattre, T., Burel, F., Humeau, A., Stevens, V.M., Vernon, P., Baguette, M., 2010. Dispersal mood revealed by shifts from routine to direct flights in the meadow brown butterfly Maniola jurtina. Oikos, on line. Dennis, P., Fry, G. L. A., and Thomas, M. B. 1993. The effects of reduced doses of insecticide on aphids and their natural enemies in oats. Nor. J. Agric. Sci., 7, 311-325. Dennis, P., Fry, G.L.A., 1992. Field margins: can they enhance natural enemy population densities and general arthropod diversity on farmland? Agriculture, Ecosystems & Environment 40, 95-115. Denys, C., Tscharntke, T., 2002. Plant-insect communities and predator-prey ratios in field margin strips, adjacent crop fields, and fallows. Oecologia 130, 315-324. Desneux, N., Denoyelle, R., and Kaiser, L. 2006. A multi-step bioassay to assess the effect of the deltamethrin on the parasitic wasp Aphidius ervi. Chemosphere 65, 1697- . Desouhant, E., Lucchetta, P., Giron, D., Bernstein, C., 2010. Feeding activity pattern in a parasitic wasp when foraging in the field. Ecological Research 25, 419-428. Detourne, D., Ballanger, Y., Delorme, R., 2008. Pollen beetle (Meligethes aeneus F.) insecticide resistance on winter oilseed rape: conclusions after a nine-year monitoring. 164 Références AFPP 8eme Conference Internationale sur les Ravageurs en Agriculture, Montpellier SupAgro, France, 22-23 Octobre 2008, 466-475. Dinter, A. 2002. Microcosm studies on intraguild predation between female erigonid spiders and lacewing larvae and influence of single versus multiple predators on cereal aphids. J. Appl. Entomol. 126, 249-257. Dosdall, L. M., and Stevenson, F. C. 2005. Managing flea beetles (Phyllotreta spp.) (Coleoptera: Chrysomelidae) in canola with seeding date, plant density, and seed treatment. Agron. J. 97, 1570-1578. Dosdall, L. M., Clayton, G. W., Harker, K. N., O'Donovan, J. T., and Stevenson, F. C. 2004. The effects of soil fertility and other agronomic factors on infestations of root maggots in canola. Agron. J. 96, 1306-1313. Dosdall, L. M., Herbut, M. J., Cowle, N. T., and Micklich, T. M. 1996. The effect of seeding date and plant density on infestations of root maggots, Delia spp. (Diptera: Anthomyiidae), in canola. Can. J. Plant Sci. 76, 169-177. Douglas, D. J. T., Vickery, J. A., and Benton, T. G. 2010. Variation in arthropod abundance in barley under varying sowing regimes. Agric. Ecosyst. Environ. 135, 127-131. Drapela, T., Moser, D., Zaller, J.G., Frank, T., 2008. Spider assemblages in winter oilseed rape affected by landscape and site factors. Ecography 31, 254-262. Duelli, P., Obrist, M.K., 2003. Regional biodiversity in an agricultural landscape: the contribution of seminatural habitat islands. Basic and Applied Ecology 4, 129-138. Duffield, S., 1991. Does the size of area you spray with insecticides influence the extent of side-effects on invertebrate populations? Game Conservancy Review, 64-65. Dunning J.B., Danielson, J.B., Pulliam, H.R., 1992. Ecological processes that affect populations in complex landscapes. Oikos 65, 169-175. Ehler, L.E., 2006. Integrated pest management (IPM): definition, historical development and implementation, and the other IPM. Pest Management Science 62, 787-789. Eilenberg, J., Hajek, A., Lomer, C., 2001. Suggestions for unifying the terminology in biological control. Biocontrol 46, 387-400. Eilers, E.J., Klein, A.M., 2009. Landscape context and management effects on an important insect pest and its natural enemies in almond. Biological Control 51, 388-394. El Titi, A., 2003. Effects of tillage on invertebrates in soil ecosystems. In “Soil tillage in agroecosystems” (El Titi, A. Ed.). CRC Press, pp. 261-296. Elliot N.C., Kieckhefer R.W., Lee J., French B.W., 1998. Influence of within-field and landscape factors on aphid predator populations in wheat. Landscape Ecology 14, 239252. Elliott, N.C., Onstad, D.W., Brewer, M.J., 2008. History and ecological basis for areawide pest management. Areawide pest management: theory and implementation. Ellis, P.R., Farrell, J.A., 1995. Resistance to cabbage aphid (Brevicoryne brassicae) in six brassica accessions in New Zealand. New Zealand Journal of Crop and Horticultural Science 23, 25-29. Emden, H. F. van, 1991. The role of host plant resistance in insect pest mis-management. Bull. Entomol. Res. 81, 123-126. 165 Références Evans, E. W., and England, S. 1996. Indirect interactions in biological control of insects: pests and natural enemies in alfalfa. Ecol. Appl. 6, 920-930. Evans, K.A., Allen-Williams, L.J., 1994. Laboratory And Field Response Of The Pollen Beetle, Meligethes Aeneus, To The Odor Of Oilseed Rape. Physiological Entomology 19, 285-290. Evenson, R. E., and Gollin, D. 2003. Assessing the impact of the green revolution, 1960 to 2000. Science (Washington) 300, 758-762. Fadamiro, H.Y., Chen, L., 2005. Utilization of aphid honeydew and floral nectar by Pseudacteon tricuspis (Diptera: Phoridae), a parasitoid of imported fire ants, Sol opis spp. (Hymenoptera: Formicidae). Biological Control 34, 73-82. Fahrig, L., 2003. Effects of habitat fragmentation on biodiversity. Annual Review Of Ecology Evolution And Systematics 34, 487-515. Ferguson AW, Holdgate R, Mason NS, Clark SJ, Williams IH, 2007. Non inversion tillage to conserve functional biodiversity for biocontrol of oilseed rape pests. Proc. XVI Int Plant Protection Congress, 2007.15-18 Octobre 2007, Glasgow; BCPC 2:818-819. Ferguson, A.W., Klukowski, Z., Walczak, B., Clark, S.J., Mugglestone, M.A., Perry, J.N., Williams, I.H., 2003. Spatial distribution of pest insects in oilseed rape: implications for integrated pest management. Agriculture, Ecosystems & Environment 95, 509-521. Ferron, P., Deguine, J.P., 2005. Crop protection, biological control, habitat management and integrated farming. A review. Agronomy for Sustainable Development 25, 17-24. Fiedler, A.K., Landis, D.A., Wratten, S.D., 2008. Maximizing ecosystem services from conservation biological control: the role of habitat management. Biological Control 45, 254-271. Finch, S., Collier, R.H., 2003. Host-plant selection by insects the "missing link". Bulletin OILB/SROP 26, 103-108. Finke, D.L., Denno, R.F., 2006. Spatial refuge from intraguild predation: implications for prey suppression and trophic cascades. Oecologia 149, 265-275. Francis, F., Lognay, G., Wathelet, J. P., and Haubruge, E. 2001. Effects of allelochemicals from first (Brassicaceae) and second (Myzus persicae and Brevicoryne brassicae) trophic levels on Adalia bipunctata. J. Chem. Ecol. 27, 243-256. Franck, P., Reyes, M., Olivares, J., Sauphanor, B., 2007. Genetic architecture in codling moth populations: comparison between microsatellite and insecticide resistance markers. Molecular Ecology 16, 3554-3564. Fritzsche, R. 1957. Zur Biologie und Ökologie der Rapsschädlinge aus der Gattung Meligethes. Zeitschrift fur wandte Entomologie 40, 222-280. Frouz, J., Kindlmann, P., 2001. The role of sink to source re-colonisation in the population dynamics of insects living in unstable habitats: an example of terrestrial chironomids. Oikos 93, 50-58. Gantner, M., Jaskiewicz, B., 2002. Beetles (Coleoptera) occuring on hazel (Corylus L.) in different habitat conditions. ACTA Scientiarum Polonorum 1, 55-66. Gardiner, M.M., Landis, D.A., Gratton, C., Schmidt, N., O'Neal, M., Mueller, E., Chacon, J., Heimpel, G.E., DiFonzo, C.D., 2009. Landscape composition influences patterns of native and exotic lady beetle abundance. Diversity And Distributions 15, 554-564. 166 Références Geiger, F., Bengtsson, J., Berendse, F., Weisser, W.W., Emmerson, M., Morales, M.B., Ceryngier, P., Liira, J., Tscharntke, T., Winqvist, C., Eggers, S., Bommarco, R., Part, T., Bretagnolle, V., Plantegenest, M., Clement, L.W., Dennis, C., Palmer, C., Onate, J.J., Guerrero, I., Hawro, V., Aavik, T., Thies, C., Flohre, A., Hanke, S., Fischer, C., Goedhart, P.W., Inchausti, P., 2010. Persistent negative effects of pesticides on biodiversity and biological control potential on European farmland. Basic and Applied Ecology 11, 97-105. Geiger, F., Bianchi, F.J.J.A., Wackers, F.L., 2005. Winter ecology of the cabbage aphid Brevicoryne brassicae (L.) (Homo., Aphididae) and its parasitoid Diaeretiella rapae (McIntosh) (Hym., Braconidae: Aphidiidae). Journal of Applied Entomology 129, 563-566. Giron, D., Casas, J., 2003. Lipogenesis in an adult parasitic wasp. Journal of Insect Physiology 49, 141-147. Gonzalez-Zamora, J.E., Leira, D., Bellido, M.J., Avilla, C., 2004. Evaluation of the effect of different insecticides on the survival and capacity of Eretmocerus mundus Mercet to control misia tabaci (Gennadius) populations. Crop Protection 23, 611-618. Griffiths, G.J.K., Holland, J.M., Bailey, A., Thomas, M.B., 2008. Efficacy and economics of shelter habitats for conservation biological control. Biological Control 45, 200-209. Grilli, M.P. 2010. The role of landscape structure on the abundance of a disease vector planthopper: a quantitative approach. Landscape Ecology 25, 383-394. Gu, H., Fitt, G.P., Baker, G.H., 2007. Invertebrate pests of canola and their management in Australia: a review. Australian Journal of Entomology 46, 231-243.
42,929