1000 resultados para Modèle économico-compulsif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In mammals, the presence of excitable cells in muscles, heart and nervous system is crucial and allows fast conduction of numerous biological information over long distances through the generation of action potentials (AP). Voltage-gated sodium channels (Navs) are key players in the generation and propagation of AP as they are responsible for the rising phase of the AP. Navs are heteromeric proteins composed of a large pore-forming a-subunit (Nav) and smaller ß-auxiliary subunits. There are ten genes encoding for Navl.l to Nav1.9 and NaX channels, each possessing its own specific biophysical properties. The excitable cells express differential combinations of Navs isoforms, generating a distinct electrophysiological signature. Noteworthy, only when anchored at the membrane are Navs functional and are participating in sodium conductance. In addition to the intrinsic properties of Navs, numerous regulatory proteins influence the sodium current. Some proteins will enhance stabilization of membrane Navs while others will favour internalization. Maintaining equilibrium between the two is of crucial importance for controlling cellular excitability. The E3 ubiquitin ligase Nedd4-2 is a well-characterized enzyme that negatively regulates the turnover of many membrane proteins including Navs. On the other hand, ß-subunits are known since long to stabilize Navs membrane anchoring. Peripheral neuropathic pain is a disabling condition resulting from nerve injury. It is characterized by the dysregulation of Navs expressed in dorsal root ganglion (DRG) sensory neurons as highlighted in different animal models of neuropathic pain. Among Navs, Nav1.7 and Nav1.8 are abundantly and specifically expressed in DRG sensory neurons and have been recurrently incriminated in nociception and neuropathic pain development. Using the spared nerve injury (SNI) experimental model of neuropathic pain in mice, I observed a specific reduction of Nedd4-2 in DRG sensory neurons. This decrease subsequently led to an upregulation of Nav1.7 and Nav1.8 protein and current, in the axon and the DRG neurons, respectively, and was sufficient to generate neuropathic pain-associated hyperexcitability. Knocking out Nedd4-2 specifically in nociceptive neurons led to the same increase of Nav1.7 and Nav1.8 concomitantly with an increased thermal sensitivity in mice. Conversely, rescuing Nedd4-2 downregulation using viral vector transfer attenuated neuropathic pain mechanical hypersensitivity. This study demonstrates the significant role of Nedd4-2 in regulating cellular excitability in vivo and its involvement in neuropathic pain development. The role of ß-subunits in neuropathic pain was already demonstrated in our research group. Because of their stabilization role, the increase of ßl, ß2 and ß3 subunits in DRGs after SNI led to increased Navs anchored at the membrane. Here, I report a novel mechanism of regulation of a-subunits by ß- subunits in vitro; ßl and ß3-subunits modulate the glycosylation pattern of Nav1.7, which might account for stabilization of its membrane expression. This opens new perspectives for investigation Navs state of glycosylation in ß-subunits dependent diseases, such as in neuropathic pain. - Chez les mammifères, la présence de cellules excitables dans les muscles, le coeur et le système nerveux est cruciale; elle permet la conduction rapide de nombreuses informations sur de longues distances grâce à la génération de potentiels d'action (PA). Les canaux sodiques voltage-dépendants (Navs) sont des participants importants dans la génération et la propagation des PA car ils sont responsables de la phase initiale de dépolarisation du PA. Les Navs sont des protéines hétéromériques composées d'une grande sous-unité a (formant le pore du canal) et de petites sous-unités ß accompagnatrices. Il existe dix gènes qui codent pour les canaux sodiques, du Nav 1.1 au Nav 1.9 ainsi que NaX, chacun possédant des propriétés biophysiques spécifiques. Les cellules excitables expriment différentes combinaisons des différents isoformes de Navs, qui engendrent une signature électrophysiologique distincte. Les Navs ne sont fonctionnels et ne participent à la conductibilité du Na+, que s'ils sont ancrés à la membrane plasmique. En plus des propriétés intrinsèques des Navs, de nombreuses protéines régulatrices influencent également le courant sodique. Certaines protéines vont favoriser l'ancrage et la stabilisation des Navs exprimés à la membrane, alors que d'autres vont plutôt favoriser leur internalisation. Maintenir l'équilibre des deux processus est crucial pour contrôler l'excitabilité cellulaire. Dans ce contexte, Nedd4-2, de la famille des E3 ubiquitin ligase, est une enzyme bien caractérisée qui régule l'internalisation de nombreuses protéines, notamment celle des Navs. Inversement, les sous-unités ß sont connues depuis longtemps pour stabiliser l'ancrage des Navs à la membrane. La douleur neuropathique périphérique est une condition débilitante résultant d'une atteinte à un nerf. Elle est caractérisée par la dérégulation des Navs exprimés dans les neurones sensoriels du ganglion spinal (DRG). Ceci a été démontré à de multiples occasions dans divers modèles animaux de douleur neuropathique. Parmi les Navs, Nav1.7 et Nav1.8 sont abondamment et spécifiquement exprimés dans les neurones sensoriels des DRG et ont été impliqués de façon récurrente dans le développement de la douleur neuropathique. En utilisant le modèle animal de douleur neuropathique d'épargne du nerf sural (spared nerve injury, SNI) chez la souris, j'ai observé une réduction spécifique des Nedd4-2 dans les neurones sensoriels du DRG. Cette diminution avait pour conséquence l'augmentation de l'expression des protéines et des courants de Nav 1.7 et Nav 1.8, respectivement dans l'axone et les neurones du DRG, et était donc suffisante pour créer l'hyperexcitabilité associée à la douleur neuropathique. L'invalidation pour le gène codant pour Nedd4-2 dans une lignée de souris génétiquement modifiées a conduit à de similaires augmentations de Nav1.7 et Nav1.8, parallèlement à une augmentation à la sensibilité thermique. A l'opposé, rétablir une expression normale de Nedd4-2 en utilisant un vecteur viral a eu pour effet de contrecarrer le développement de l'hypersensibilité mécanique lié à ce modèle de douleur neuropathique. Cette étude démontre le rôle important de Nedd4-2 dans la régulation de l'excitabilité cellulaire in vivo et son implication dans le développement des douleurs neuropathiques. Le rôle des sous-unités ß dans les douleurs neuropathiques a déjà été démontré dans notre groupe de recherche. A cause de leur rôle stabilisateur, l'augmentation des sous-unités ßl, ß2 et ß3 dans les DRG après SNI, conduit à une augmentation des Navs ancrés à la membrane. Dans mon travail de thèse, j'ai observé un nouveau mécanisme de régulation des sous-unités a par les sous-unités ß in vitro. Les sous-unités ßl et ß3 régulent l'état de glycosylation du canal Nav1.7, et stabilisent son expression membranaire. Ceci ouvre de nouvelles perspectives dans l'investigation de l'état de glycosylation des Navs dans des maladies impliquant les sous-unités ß, notamment les douleurs neuropathiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ÁBSTRACT : Mammary gland is composed of two main epithelial cell types, myoepithelial and luminal. The mechanisms involved in determination and maintenance of them remain poorly understood. Notch signaling is known to regulate cell fate determination in other tissues like skin and nervous system. It was also shown that it can act as tumor suppressor or oncogene depending on the tissue type. The mouse models overexpressing active Notch receptors indicated that Notch signaling is oncogenic in the mammary gland. This observation was followed by some descriptive and functional studies in human breast cancer and it was reported that Notch signaling activity or expression of its components are increased in some of the breast tumor samples compared to normal tissue. However, the physiological role of the Notch signaling and its downstream mechanisms in mammary gland is poorly defined. p63, a member of p53 family, has been implicated in the cell fate determination of keratinocytes. Knockout mouse models revealed that p63 is required for the formation of the mammary anlagen in embryo and its ΔN isoform is expressed exclusively in the myoepithelial layer of the adult breast. In order to understand its function in normal breast epithelial cells, I activated Notch signaling by expression of Notch1 intracellular domain (NICD) in normal primary human breast epithelial cells (HBECs). In this context, NICD reduced growth of HBECs and led to downmodulation of extracellular matrix-receptor interaction network (ECM) components as well as ΔNp63. Expression of ΔNp63 together with NICD partially rescued Notch induced growth reduction, which was correlated with an increase in ECM components. Moreover, silencing ΔNp63 in myoepithelial HBECs reduced growth similar to Notch activation and it led to downregulation of myoepithelial and upregulation of luminal markers. Complementing this observation, forced expression of ONp63 in luminal HBECs induced myoepithelial phenotype and decreased luminal markers. In vivo, by the analysis of a Notch reporter mouse strain, I showed that Notch is activated during puberty specifically at the sites of ductal morphogenesis, terminal end buds. FAGS analysis revealed that it can be detected in two different populations based on CD24 expression (low (lo) or high (high)): at lower levels in CD24lo, which includes stem/progenitor and myoepithelial cells and higher levels in CD24hi, which contains luminal cells. In parallel with in vitro results, the CD24lo mouse mammary epithelial cells displaying Notch activity have lower levels of p63 expression. Furthermore, deletion of RBPjk, the main mediator of Notch signaling, or the overexpression of ΔNp63 inhibited luminal cell lineage in vivo. Another important point revealed by Notch reporter mouse strain is the simultaneous activation of Notch with estrogen signaling during pubertal development. The expression of FOXA1, the mediator of estrogen receptor (ER) transcriptional activity, is correlated with Notch activation in vivo that it is lower in CD24lo than in CD24hi cells. Moreover, FOXA1 is regulated by NICD in vitro supporting the presence of a link between Notch and ER signaling. Taken together, I report that Notch signaling is involved in luminal cell fate determination and its effects are partially mediated through inhibition of ONp63. Besides, ΔNp63 is required for the maintenance and sufficient for the induction of myoepithelial phenotype in HBECs in vitro and is not compatible with luminal lineage in vivo. Based on these results, I propose a model for epithelial cell hierarchy in mammary gland, whereby there are two different types of luminal progenitors, early and late, displaying different levels of Notch activity. Notch signaling contributes to the determination of luminal cell lineage in these two progenitor steps: In "Early Luminal Progenitor" stage, it inhibits myoepithelial fate by decreasing p63 expression, and in "Late Luminal Progenitor" stage, Notch signaling is involved in induction of luminal lineage by acting on ER-FOXA1 axis. It has to be investigated further whether Notch signaling might behave as an oncogene or tumor suppressor depending on which cell type in the epithelial hierarchy it is modulated and which one is more likely to occur in different human breast cancer types. RÉSUMÉ : La glande mammaire est composée de deux types principaux de cellules: les cellules luminales, qui bordent le lumen et les cellules myoépithéliales, qui se trouvent entre la lame basale et les cellules luminales. Les mécanismes intervenant dans leur différenciation et leur maintenance demeurent encore mal compris. La protéine transmembranaire Notch est connue pour déterminer le destin des cellules dans plusieurs types de tissus comme la peau ou le système nerveux. Selon le type de tissu dans lequel se trouve Notch, il agira soit comme un suppresseur de tumeur soit comme un oncogène. A l'aide de modèles de souris surexprimant les récepteurs actifs de Notch, il a été démontré que la voie de signalisation de Notch est oncogénique au niveau de la glande mammaire. Des études descriptives et fonctionnelles dans le cadre du cancer du sein ont permis de mettre en évidence une augmentation de l'activité de Notch ou de l'expression de ces composants dans certains tissus cancéreux. Toutefois, le rôle physiologique de Notch et des mécanismes qu'il active restent méconnus. P63, une protéine membre de la famille p53, est impliquée dans la différenciation des kératinocytes. Le modèle issu de l'étude des souris p63 knockout a révélé que cette protéine est requise pour la formation des primordia mammaires chez l'embryon et que son isoforme ΔNp63 est exclusivement exprimée dans la couche myoépithéliale de la glande mammaire adulte. Dans le but de comprendre les fonctions physiologiques de Notch, je l'ai activé en exprimant le domaine intracellulaire de Notch 1 (NICD) dans des cellules épithéliales primaires de glande mammaire humaine (HBECs). Le NICD a alors réduit la croissance des HBECs et conduit à la régulation négative non seulement de p63 mais également des composants du réseau d'interaction des récepteurs de la matrice extracellulaire (ECM). En exprimant conjointement ΔNp63 et NICD, il est apparu que la réduction de croissance induite par Notch était partiellement compensée, et qu'il y avait également une augmentation des composants ECM. De plus, lorsque ΔNp63 a été inactivé dans les cellules HBECs myoépithéliales, une réduction de croissance cellulaire identique à celle provoquée par l'activation de Notch a pu être mise en évidence, de même qu'une régulation négative des marqueurs myoépithéliaux ainsi qu'une augmentation des marqueurs luminaux. Afin de compléter ces informations, l'expression de ΔNp63 a été forcée dans les HBECs luminales, ce qui a induit un phénotype myoépithélial et une diminution des marqueurs lumineux. In vivo, par l'analyse de souris ayant un gène rapporteur de l'activité de Notch, j'ai démontré que Notch est activé pendant la puberté au niveau des sites de la morphogenèse canalaire, à savoir les bourgeons terminaux. Les analyses par FACS (Fluorescence-activated cell sorting) basées sur l'expression de l'antigène CD24 ont révélé qu'il peut tre détecté dans deux populations différentes : une population qui l'exprime faiblement, qui regroupe les cellules souches/progéniteurs et les cellules myoépithéliales, et une population qui l'exprime fortement qui est composé des cellules luminales. Parallèlement aux résultats in vitro, j'ai mis en évidence un faible niveau d'expression de p63 dans les cellules épithéliales de la glande mammaire de souris, exprimant faiblement l'antigène CD24 et présentant une activité de Notch. De plus, la délétion de RBPjr~, médiateur principal de la signalisation de Notch, ainsi que la surexpression de ΔNp63 in vivo ont inhibé la lignée des cellules luminales. Un autre point important révélé par les souris rapporteur de l'activité de Notch a été l'activation simultanée de Notch et de la signalisation de l'oestrogène pendant le développement pubertaire. L'expression de FOXA1, médiateur de l'activité transcriptionnelle des récepteurs aux oestrogènes (ER), est en corrélation avec l'activation de Notch in vivo, plus basse dans les cellules avec une faible expression de l'antigène CD24 que dans celles avec une forte expression. De plus, FOXA1 est régulé par NICD in vitro confirmant la présence d'un lien entre Notch et la signalisation des ER. En résumé, la signalisation de Notch est impliquée dans la détermination du destin cellulaire des cellules luminales et ses effets sont partiellement modifiés par l'inhibition de ΔNp63. ΔNp63 est requis pour la maintenance et est suffisant pour l'induction du phénotype myoépithéliale dans les HBECs in vitro et ne peut donc pas se trouver dans les cellules luminales in vivo. Basé sur ces résultats, je propose un modèle de hiérarchisation des cellules épithéliales de la glande mammaire, dans lequel sont présents deux types de progéniteurs des cellules luminales exprimant des niveaux différents d'activité de Notch, les progéniteurs lumineux précoces et tardifs. La signalisation de Notch contribue à la différenciation de la lignée cellulaire luminale au niveau de ces deux progéniteurs : dans la forme précoce, il inhibe la différenciation des cellules myoépithéliales en réduisant l'expression de p63 et dans la forme tardive, Notch est impliqué dans l'induction de la lignée luminale en agissant sur l'axe ER-FOXA1. Il serait nécessaire d'investiguer plus loin si le fait que Notch agisse comme oncogène ou suppresseur de tumeur dépend du stade de différenciation de la cellule dans laquelle il est modulé et laquelle de ces deux fonctions il est le plus probable de rencontrer dans les différents types de cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'objectif de la thèse est de comprendre le mode d'organisation économique spécifique aux petits centres urbains qui composent les espaces frontaliers sahéliens, en s'interrogeant sur leur concurrence ou leur complémentarité éventuelle à l'intérieur d'un régime de spatialité particulier. En s'appuyant sur l'exemple du carrefour économique de Gaya-Malanville-Kamba situé à la frontière entre le Niger, le Bénin et le Nigeria, il questionne le rôle de la ville-frontière ainsi que le jeu des acteurs marchands localement dominants, à partir de quatre grandes interrogations : Quelles sont les spécificités de l'Afrique sahélienne qui obligent à renouveler les approches géographiques de l'espace marchand? Quels sont les facteurs déterminants de l'activité économique frontalière? Les formes d'organisation de l'espace qui concourent à la structuration de l'économie sont-elles concurrentes ou coopératives? Les logiques économiques frontalières sont-elles compatibles avec l'orientation des programmes de développement adoptés par les pays sahéliens et leurs partenaires bi- ou multilatéraux? Dans une première partie, un modèle territorial de l'Afrique sahélienne permet de rendre compte de la prédominance des logiques circulatoires sur les logiques productives, une propriété essentielle de toute organisation économique confrontée à l'instabilité climatique. Dans une seconde partie, l'étude considère les facteurs déterminants de l'activité économique frontalière que sont le degré d'enclavement des territoires, la libre circulation des biens et des personnes, les relations concurrentielles ou coopératives qui lient les marchés ainsi que les liens clientélistes qui unissent patron et obligés. Une troisième partie est consacrée aux productions agricoles de tente organisées sous forme de coopératives paysannes ou d'initiatives privées. Une quatrième partie s'intéresse aux réseaux de l'import-export et du commerce de détail qui bénéficient de l'augmentation des besoins engendrée par l'urbanisation sahélienne. L'économie spatiale qui résulte de ces flux est organisée selon deux logiques distinctes : d'une part, les opportunités relatives à la production agricole conduisent certains investisseurs à intensifier l'irrigation pour satisfaire la demande des marchés urbains, d'autre part, les acteurs du capitalisme marchand, actifs dans l'import-export et la vente de détail, développent des réseaux informels et mobiles qui se jouent des différentiels nationaux. Les activités commerciales des villes-marchés connaissent alors des fluctuations liées aux entreprises productives et circulatoires de ces patrons, lesquelles concourent à l'organisation territoriale générale de l>Afrique sahélienne. Ces logiques évoluent dans un contexte fortement marqué par les politiques des institutions financières internationales, des agences bilatérales de coopération et des ONGs. Celles-ci se donnent pour ambition de transformer les économies, les systèmes politiques et les organisations sociales sahéliennes, en faisant la promotion du libéralisme, de la bonne gouvernance et de la société civile. Ces axes directeurs, qui constituent le champ de bataille contemporain du développement, forment un ensemble dans lequel la spécificité sahélienne notamment frontalière est rarement prise en compte. C'est pourquoi l'étude conclut en faveur d'un renouvellement des politiques de développement appliquées aux espaces frontaliers. Trois grands axes d'intervention peuvent alors être dégagés, lesquels permettent de réconcilier des acteurs et des logiques longtemps dissociés: ceux des espaces séparés par une limite administrative, ceux de la sphère urbaine et rurale et ceux du capitalisme marchand et de l'investissement agricole, en renforçant la coopération économique transfrontalière, en prenant en considération les interactions croissantes entre villes et campagnes et en appuyant les activités marchandes. Abstract: Urbanisation in West Africa is recent and fast. If only 10 % of the total population was living in urban areas in 1950, this proportion reached 40 % in 2000 and will be estimated to 60 % in 2025. Small and intermediate cities, located between the countryside and large metropolis, are particularly concerned with this process. They are nowadays considered as efficient vectors of local economic development because of fiscal or monetary disparities between states, which enable businessmen to develop particular skills based on local urban networks. The majority of theses networks are informal and extremely flexible, like in the Gaya - Malanville - Kamba region, located between Niger, Benin and Nigeria. Evidence show that this economic space is characterised by high potentialities (climatic and hydrological conditions, location on main economic West African axis) and few constraints (remoteness of some potentially high productive areas). In this context, this PhD deals with the economic relationships between the three market cities. Focusing on the links that unite the businessmen of the local markets - called patron; - it reveals the extreme flexibility of their strategies as well as the deeply informal nature of their activities. Through the analysis of examples taken from the commerce of agricultural products, import and export flows and detail activities, it studies the changes that have taken place in the city centres of Gaya, Malanville and Kamba. Meanwhile, this research shows how these cities represent a border economical area based on rival and complementary connections. In the first Part, it was necessary to reconsider the usual spatial analysis devoted to the question of economic centrality. As a matter of fact, the organisation of West African economic spaces is very flexible and mobile. Centrality is always precarious because of seasonal or temporary reasons. This is why the first chapters are devoted to the study of the specificity of the Sahelian territoriality. Two main elements are relevant: first the population diversity and second, the urban-rural linkages. In the second part, the study considers three main factors on which the cross-border economic networks are dependent: enclosure that prevents goods to reach the markets, administrative constraints that limit free trade between states and cities and the concurrent or complementary relationships between markets. A third part deals with the clientelist ties engaged between the patrons and their clients with the hypothesis that these relationships are based on reciprocity and inequality. A fourth part is devoted to' the study of the spatial organisation of commercial goods across the borders, as far as the agriculture commercial products, the import-export merchandises and the retail products are concerned. This leads to the conclusion that the economic activity is directly linked to urban growth. However, the study notices that there is a lack of efficient policies dealing with strengthening the business sector and improving the cross-border cooperation. This particularity allows us to favour new local development approaches, which would take into account the important potential of private economical actors. In the same time, the commercial flows should be regulated with the help of public policies, as long as they are specifically adapted to the problems that these areas have to deal with.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suicide et les tentatives de suicide des adolescents sont des enjeux de santé publique majeurs. En s'appuyant sur le modèle de soins développé à Genève, nous décrivons les différents temps nécessaires pour accueillir, évaluer et orienter un adolescent pris dans un mouvement suicidaire. Un temps d'accueil et d'évaluation pédiatrique, puis un temps d'évaluation psychiatrique et enfin un temps d'orientation à l'issue duquel est proposée une prise en charge spécifique. En fonction des caractéristiques cliniques du jeune (impulsivité, symptomatologie anxio-dépressive...), de sa capacité d'engagement dans les soins et de la qualité des liens du réseau, la prise en charge sera soit ambulatoire intensive, soit hospitalière. Suicide and suicide attempts of adolescents are major public health issues. Based on a model of care developed in Geneva, we describe the conditions necessary to evaluate and guide a teenager trapped in a suicidal behavior. First of all, there must be some time dedicated to pediatric assessement followed by a psychiatric evaluation and finally, the adolescent can be oriented toward specific treatment. Depending on the clinical characteristics of the young adolescent and according to his willingness to engage himself in intensive follow-up (impulsivity, anxious?--depressive symptomatology...), cares will be given either as outpatient with close monitoring or inpatient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence de fluide météorique synchrone à l'activité du détachement (Farmin, 2003 ; Mulch et al., 2007 ; Gébelin et al., 2011), implique que les zones de cisaillement sont des systèmes ouverts avec des cellules de convections à l'échelle crustale et un intense gradient géothermique au sein du détachement (Morrison et Anderson, 1998, Gottardi et al., 2011). De plus, les réactions métamorphiques liées à des infiltrations fluides dans les zones de cisaillement extensionnel peuvent influencer les paramètres rhéologiques du système (White and Knipe, 1978), et impliquer la localisation de la déformation dans la croûte. Dans ce manuscrit, deux zones de cisaillement infiltrées par des fluides météoriques sont étudiées, l'une étant largement quartzitique, et l'autre de nature granitique ; les relations entre déformation, fluides, et roches s'appuient sur des approches structurales, microstructurales, chimiques et isotopiques. L'étude du détachement du Columbia river (WA, USA) met en évidence que la déformation mylonitique se développe en un million d'années. La phase de cisaillement principal s'effectue à 365± 30°C d'après les compositions isotopiques en oxygène du quartz et de la muscovite. Ces minéraux atteignent l'équilibre isotopique lors de leur recristallisation dynamique contemporaine à la déformation. La zone de cisaillement enregistre une baisse de température, remplaçant le mécanisme de glissement par dislocation par celui de dissolution- précipitation dans les derniers stades de l'activité du détachement. La dynamique de circulation fluide bascule d'une circulation pervasive à chenalisée, ce qui engendre localement la rupture des équilibres d'échange isotopiques. La zone de cisaillement de Bitterroot (MT, USA) présente une zone mylonitique de 600m d'épaisseur, progressant des protomylonites aux ultramylonites. L'intensité de la localisation de la déformation se reflète directement sur l'hydratation des feldspaths, réaction métamorphique majeure dite de « rock softening ». Une étude sur roche totale indique des transferts de masse latéraux au sein des mylonites, et d'importantes pertes de volume dans les ultramylonites. La composition isotopique en hydrogène des phyllosilicates met en évidence la présence (1) d'une source magmatique/métamorphique originelle, caractérisée par les granodiorites ayant conservé leur foliation magmatique, jusqu'aux protomylonites, et (2) une source météorique qui tamponne les valeurs des phyllosilicates des fabriques mylonitiques jusqu'aux veines de quartz non-déformées. Les compositions isotopiques en oxygène des minéraux illustrent le tamponnement de la composition du fluide météorique par l'encaissant. Ce phénomène cesse lors du processus de chloritisation de la biotite, puisque les valeurs des chlorites sont extrêmement négatives (-10 per mil). La thermométrie isotopique indique une température d'équilibre isotopique de la granodiorite entre 600-500°C, entre 500-300°C dans les mylonites, et entre 300 et 200°C dans les fabriques cassantes (cataclasites et veines de quartz). Basé sur les résultats issus de ce travail, nous proposons un modèle général d'interactions fluide-roches-déformation dans les zones de détachements infiltrées par des fluides météoriques. Les zones de détachements évoluent rapidement (en quelques millions d'années) au travers de la transition fragile-ductile ; celle-ci étant partiellement contrôlée par l'effet thermique des circulations de fluide météoriques. Les systèmes de détachements sont des lieux où la déformation et les circulations fluides sont couplées ; évoluant rapidement vers une localisation de la déformation, et de ce fait, une exhumation efficace. - The presence of meteoric fluids synchronous with the activity of extensional detachment zones (Famin, 2004; Mulch et al., 2007; Gébelin et al., 2011) implies that extensional systems involve fluid convection at a crustal scale, which results in high geothermal gradients within active detachment zones (Morrison and Anderson, 1998, Gottardi et al., 2011). In addition, the metamorphic reactions related to fluid infiltration in extensional shear zones can influence the rheology of the system (White and Knipe, 1978) and ultimately how strain localizes in the crust. In this thesis, two shear zones that were permeated by meteoric fluids are studied, one quartzite-dominated, and the other of granitic composition; the relations between strain, fluid, and evolving rock composition are addressed using structural, microstructural, and chemical/isotopic measurements. The study of the Columbia River detachment that bounds the Kettle core complex (Washington, USA) demonstrates that the mylonitic fabrics in the 100 m thick quartzite- dominated detachment footwall developed within one million years. The main shearing stage occurred at 365 ± 30°C when oxygen isotopes of quartz and muscovite equilibrated owing to coeval deformation and dynamic recrystallization of these minerals. The detachment shear zone records a decrease in temperature, and dislocation creep during detachment shearing gave way to dissolution-precipitation and fracturing in the later stages of detachment activity. Fluid flow switched from pervasive to channelized, leading to isotopic disequilibrium between different minerals. The Bitterroot shear zone detachment (Montana, USA) developed a 600 m thick mylonite zone, with well-developed transitions from protomylonite to ultramylonite. The localization of deformation relates directly to the intensity of feldspar hydration, a major rock- softening metamorphic reaction. Bulk-rock analyses of the mylonitic series indicate lateral mass transfer in the mylonite (no volume change), and significant volume loss in ultramylonite. The hydrogen isotope composition of phyllosilicates shows (1) the presence of an initial magmatic/metamorphic source characterized by the granodiorite in which a magmatic, and gneissic (protomylonite) foliation developed, and (2) a meteoric source that buffers the values of phyllosilicates in mylonite, ultramylonite, cataclasite, and deformed and undeformed quartz veins. The mineral oxygen isotope compositions were buffered by the host-rock compositions until chloritization of biotite started; the chlorite oxygen isotope values are negative (-10 per mil). Isotope thermometry indicates a temperature of isotopic equilibrium of the granodiorite between 600-500°C, between 500-300°C in the mylonite, and between 300 and 200°C for brittle fabrics (cataclasite and quartz veins). Results from this work suggest a general model for fluid-rock-strain feedbacks in detachment systems that are permeated by meteoric fluids. Phyllosilicates have preserved in their hydrogen isotope values evidence for the interaction between rock and meteoric fluids during mylonite development. Fluid flow generates mass transfer along the tectonic anisotropy, and mylonites do not undergo significant volume change, except locally in ultramylonite zones. Hydration of detachment shear zones attends mechanical grain size reduction and enhances strain softening and localization. Self-exhuming detachment shear zones evolve rapidly (a few million years) through the transition from ductile to brittle, which is partly controlled by the thermal effect of circulating surface fluids. Detachment systems are zones in the crust where strain and fluid flow are coupled; these systems. evolve rapidly toward strain localization and therefore efficient exhumation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Neonatal stroke occurs in 1 out of 4000 live births and usually leads to serious motor and cognitive disabilities. Ischemic brain injury results from a complex of pathophysiological events that evolve over space and time making it difficult to devise successful therapy. To date, there are no effective treatments for perinatal brain damage. Most clinical trials of neuroprotectaot drugs have failed because of their side-effects. For this reason it is important to find ways to target drugs specifically into the stressed cells. In this study we plan to contribute to the development of an efficient neuroprotective strategy against excitotoxic cell death in the neonate. In order to achieve this goal, several strategies were followed. A recently described phenomenon of induced endocytosis associated with excitotoxicity was more deeply investigated. As a simplified model we used dissociated cortical neurons exposed to an excitotoxic dose of NMDA, and we showed that this phenomenon depends on clathrin and dynamin. Using a model of neonatal focal cerebral ischemia, we demonstrated that the excitotoxicity-related endocytosis targets molecules such as TAT peptides into stressed neurons. These appear to be viable, raising the possibility of using this phenomenon as a doorway for neuroprotection. One part of the project was devoted to the study of the TAT-conjugated JNK inhibitory peptide, D-JNKI1. Adose-response study showed strong neuroprotection over a wide dose-range in the case of delayed administration (either intravenous or intraperitoneal). Since D-JNKI1 is aTAT-linked peptide, we investigated the role of its own NMDA-induced endocytosis in its neuroprotective efficacy. Furthermore, we showed that this endocytosis is JNK dependent, and that D-JNKI1 regulates its own uptake. We additionally studied the different types of cell death involved in a model of neonatal focal cerebral ischemia. Necrosis occurred rapidly in the center of the lesion whereas apoptosis and autophagic cell death occurred late at the lesion border. Inhibiting apoptosis was not protective, but use of autophagy inhibitor 3methyladenine provided a strong neuroprotection. Finally, combining two neuroprotectants that target different intracellular pathways was neuroprotective in a severe model of cerebral ischemia where neither of the drugs was efficient when administered individually. Résumé : L'ischémie néonatale connaît une incidence de 1 naissance sur 4000, entraînant généralement de sérieux dysfonctionnements moteurs et cognitifs. L'ischémie cérébrale résulte d'évènements physiopathologiques complexes qui évoluent dans l'espace et le temps rendant difficile la conception de thérapies efficaces. A l'heure actuelle, aucun traitement n'existe pour lutter contre les accidents vasculaires cérébraux qui se produisent autour de la naissance. La plupart des essais cliniques concernant des molécules neuroprotectrices ont échoué du fait de leurs effets secondaires néfastes. Pour cette raison, il est important de trouver des moyens de cibler les drogues dans les cellules stressées spécifiquement. Dans cette étude nous visons à participer au développement d'une stratégie neuroprotectrice efficace contre l'ischémie cérébrale chez le nouveau-né. Dans ce but, plusieurs stratégies ont été poursuivies. Un nouveau phénomène d'endocytose induite par un stimulus excitotoxique a été récemment décrit. Une partie de cette étude va consister à mieux comprendre ce phénomène. Pour céla, nous avons utilisé comme modèle d'étude simplifié des cultures dissociées de neurones corticaux exposées à une dose excitotoxique de NMDA. Nous avons ainsi montré que cette endocytose associée à l'excitotoxicité dépend de la clathrine et de la dynamine. A l'aide d'un modèle d'ischémie cérébrale focale chez le raton de 12 jours, nous avons démontré que cette endocytose induite par l'excitotoxicité permet de cibler des molécules diverses et en particulier les peptides TAT dans les neurones stressés. Ces neurones fortement endocytiques apparaissent comme étant encore viables, ouvrant la possibilité d'utiliser cette endocytose comme moyen d'entrée pour des molécules thérapeutiques. Une partie du projet a été consacrée à l'étude d'un inhibiteur de la voie JNK, couplé au TAT, appelé D-JNKI1. Des études de dose réponse du D-JNKI1 ont été réalisées chez l'animal, testant les effets d'une administration retardée en injection intraveineuse ou intra péritonéale. Ces études démontrent qu'une large gamme de dose permet d'obCenir une réduction de la taille de la lésion. Comme D-JNK11 est couplé au peptide TAT, nous avons étudié la contribution que sa propre endocytose lors de l'excitotoxicité apporte à ses effets protecteurs. Par ailleurs, nous avons montré que cette endocytose induite par l'excitotoxicité dépend de la voie de signalisation JNK et que D-JNK11 est donc capable de réguler sa propre entrée. Nous avons en parallèle étudié les différents types de mort cellulaires impliqués dans le développement de la lésion dans un modèle sévère d'ischémie cérébrale chez le raton nouveau-né. La mort cellulaire par nécrose se développe rapidement dans le centre de la lésion alors que les morts cellulaires par apoptose et autophagique vont apparaître plus tard et au bord de la lésion. Inhiber l'apoptose n'a pas permis de réduire la taille de la lésion alors que l'utilisation d'un inhibiteur d'autophagie, la 3-méthyladénine, procure une forte neuroprotection. Finalement, la combinaison de deux peptides qui ciblent différentes voies de signalisation intracellulaire permet d'obtenir une bonne protection dans le modèle d'ischémie sévère dans lequel aucun des deux peptides administré séparément n'a donné d'effets bénéfiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : La satisfaction des patients concernant leur prise en charge fait maintenant partie intégrante de la qualité des soins. Elle a été évaluée à maintes reprises chez des patients adultes ou pédiatriques, mais rarement chez des patients adolescents. Les attentes des adolescents par rapport aux services de soins ont par contre été souvent étudiées et certains facteurs semblent particulièrement importants. Parmi ceux-ci, citons la confidentialité, le respect, l'honnêteté, l'écoute, l'accès aux soins ou le fait d'avoir des informations compréhensibles. L'Organisation Mondiale de la Santé a développé le concept de 'Youth-friendly health services' pour répondre aux besoins et attentes particuliers des adolescents. Il est basé sur sept principes : l'accessibilité, l'équité, l'efficience, l'efficacité, le fait d'être approprié et compréhensible. Notre objectif était d'évaluer la satisfaction des adolescentes consultant dans une clinique multidisciplinaire pour adolescents basée sur le modèle 'Youth-friendly health services' et de déterminer les facteurs qui y sont associés. Nous avons fait une enquête transversale dans une clinique pour adolescents à Lausanne entre mars et mai 2008 moyennant un questionnaire anonyme auto-administré. Tous les patients qui avaient consulté au moins une fois auparavant étaient éligibles. Nous avons ensuite éliminé les garçons, en très petit nombre et donc de faible valeur statistique. Trois cents onze patientes âgées de 12 à 22 ans ont été inclues dans l'étude. Nous avons effectué des analyses bivariées pour comparer les patientes satisfaites et non satisfaites puis avons construit un modèle log- linéaire afin de déterminer les facteurs directement ou indirectement liés à la satisfaction des patientes. Nonante-quatre pourcent des patientes étaient satisfaites. Les facteurs significativement associés à la satisfaction des adolescentes étaient les suivants : Les jeunes filles se sentaient plus écoutées en ce qui concerne leurs plaintes, et avaient plus l'impression que le soignant les comprenait. Elles avaient aussi moins changé de soignant durant le suivi, avaient plus l'impression d'avoir bénéficié du traitement adéquat et pensaient avoir plus suivi les conseils du soignant. Le modèle log-linéaire que nous avons effectué a mis en avant quatre facteurs directement liés à la satisfaction des patientes, qui sont la continuité des soins, le résultat de la prise en charge, l'adhérence au traitement et le sentiment d'être comprise par le soignant. Ces résultats mettent en avant l'importance de la relation interpersonnelle entre le soignant et le patient, mais rendent aussi attentif à des aspects qui pourraient être améliorés, en ce qui concerne par exemple la continuité des soins. En effet, une clinique comme la nôtre fait partie d'un hôpital de formation et le tournus fréquent des soignants est inévitable. Les changements de médecins et autres soignants devraient alors être préparés et expliqués aux patients avec la plus grande attention. L'adhérence au traitement semble être fortement liée à la satisfaction des patients, mais la nature de notre étude ne permet pas de conclure à une relation de cause à effet. Nous pouvons tout de même supposer qu'elle est une conséquence de la satisfaction des patients. Enfin, la confidentialité et l'accès aux soins souvent cités comme essentiels à la satisfaction des patients dans la littérature étaient secondaires dans notre étude. En conclusion, la satisfaction des adolescentes était principalement basée sur une relation de confiance de longue durée avec leurs soignants. Les pédiatres occupent une place privilégiée pour répondre à ces besoins parce qu'ils connaissent leurs patients depuis l'enfance. Ils devraient cependant garder à l'esprit que la relation avec le patient change au moment de l'adolescence et que les jeunes sont très sensibles à la relation de confiance interpersonnelle qu'ils ont avec leur médecin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the past few years, technological breakthroughs have helpedcompetitive sports to attain new levels. Training techniques, athletes' management and methods to analyse specific technique and performancehave sharpened, leading to performance improvement. Alpine skiing is not different. The objective of the present work was to study the technique of highy skilled alpine skiers performing giant slalom, in order to determine the quantity of energy that can be produced by skiers to increase their speed. To reach this goal, several tools have been developed to allow field testing on ski slopes; a multi cameras system, a wireless synchronization system, an aerodynamic drag model and force plateforms have especially been designed and built. The analyses performed using the different tools highlighted the possibility for several athletes to increase their energy by approximately 1.5 % using muscular work. Nevertheless, the athletes were in average not able to use their muscular work in an efficient way. By offering functional tools such as drift analysis using combined data from GPS and inertial sensors, or trajectory analysis based on tracking morphological points, this research makes possible the analysis of alpine skiers technique and performance in real training conditions. The author wishes for this work to be used as a basis for continued knowledge and understanding of alpine skiing technique. - Le sport de compétition bénéficie depuis quelques années des progrès technologiques apportés par la science. Les techniques d'entraînement, le suivi des athlètes et les méthodes d'analyse deviennent plus pointus, induisant une nette amélioration des performances. Le ski alpin ne dérogeant pas à cette règle, l'objectif de ce travail était d'analyser la technique de skieurs de haut niveau en slalom géant afin de déterminer la quantité d'énergie fournie par les skieurs pour augmenter leur vitesse. Pour ce faire, il a été nécessaire de developer différents outils d'analyse adaptés aux contraintes inhérentes aux tests sur les pistes de skis; un système multi caméras, un système de synchronisation, un modèle aérodynamique et des plateformes de force ont notamment été développés. Les analyses effectuées grâce à ces différents outils ont montré qu'il était possible pour certains skieur d'augmenter leur énergie d'environ 1.5 % grâce au travail musculaire. Cependant, les athlètes n'ont en moyenne pas réussi à utiliser leur travail musculaire de manière efficace. Ce projet a également rendu possible des analyses adaptées aux conditions d'entraînement des skieurs en proposant des outils fonctionnels tels que l'analyse du drift grâce à des capteurs inertiels et GPS, ainsi que l'analyse simplifiée de trajectoires grâce au suivi de points morphologiques. L'auteur espère que ce travail servira de base pour approfondir les connaissances de la technique en ski alpin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La prévalence des maladies stéatosiques non alcooliques du foie augmente de manière exponentielle dans les pays industrialisés. Le développement de ces maladies se traduit par une stéatose hépatique fréquemment associée à une résistance à l'insuline. Cette résistance a pu être expliquée par l'accumulation intra-hépatocytaire de lipides intermédiaires tels que Céramides et Diacylglycérols. Cependant, notre modèle animal de stéatose hépatique, les souris invalidées pour la protéine hépatique « Microsomal Triglyceride Transfert Protein » (Mttp Δ / Δ), ne développent pas de résistance à l'insuline, malgré une augmentation de ces lipides intermédiaires. Ceci suggère la présence d'un autre mécanisme induisant la résistance à l'insuline. Matériels et méthodes : L'analyse Microarray du foie des souris Mttp Δ / Δ a montré une forte up-régulation des gènes « Cell-death Inducing DFFA-like Effector C (cidec) », « Lipid Storage Droplet Protein 5 (lsdp5) » et « Bernardinelli-Seip Congenital Lipodystrophy 2 Homolog (seipin) » dans le foie des souris Mttp Δ / Δ. Ces gènes ont été récemment identifiés comme codant pour des protéines structurelles des gouttelettes lipidiques. Nous avons testé si ces gènes jouaient un rôle important dans le développement de la stéatose hépatique, ainsi que de la résistance à l'insuline. Résultats : Nous avons démontré que ces gènes sont fortement augmentés dans d'autres modèles de souris stéatosées tels que ceux présentant une sur-expression de ChREBP. Dans les hépatocytes murins (AML12 :Alfa Mouse Liver 12), l'invalidation de cidec et/ou seipin semble diminuer la phosphorylation d'AKT après stimulation à l'insuline, suggérant une résistance à l'insuline. Chez l'homme, l'expression de ces gènes est augmentée dans le foie de patients obèses avec stéatose hépatique. De manière intéressante, cette augmentation est atténuée chez les patients avec résistance à l'insuline. Conclusion : Ces données suggèrent que ces protéines des gouttelettes lipidiques augmentent au cours du développement de la stéatose hépatique et que cette augmentation protège contre la résistance à l'insuline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.