631 resultados para Fonction pulmonaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gènes orthologues divergent sur plusieurs aspects durant l'évolution. Après une revue de la littérature cherchant à montrer de la divergence entre les orthologues de l'humain et de la souris, j'ai souligné les différentes causes de cette divergence. En comparant les gènes qui divergent en fonction, je n'ai pas trouvé de lien avec la divergence des séquences, pour cette raison je me suis penché sur l'étude de l'expression. Notamment, j'ai étudié le niveau, la spécificité ainsi que la présence/absence d'expression des orthologues humain-souris liés aux maladies Mendéliennes. Malgré les similarités trouvées entre l'humain et la souris, j'ai détecté une différence d'expression spécifique à une des deux espèces liée a un phénotype précis (gène essentiel/non-essentiel). Cela m'a permis de conclure que la différence sur le plan phénotypique entre l'humain et la souris est mieux expliquée par les patrons d'expression plutôt que le niveau d'expression ou la sélection. J'ai été également intéressé par l'évolution des séquences d'ADN codantes pour des protéines, en particulier sur le rôle de la sélection. J'ai commencé par une étude sur la fiabilité de détection de la sélection positive en comparant des séquences divergentes. J'ai trouvé, en utilisant le model de branche-site que la sélection peut être détectée sur des séquences qui ont divergé il y a plus de 500 millions d'années. J'ai analysé le biais de GC entres les séquences sans trouver une influence sur l'estimation de la sélection positive. Finalement, Je crois que ce travail est une première étape dans l'établissement d'un lien entre la sélection et les patrons d'expression des gènes chez les vertébrés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Plusieurs études suggèrent que les populations vivant en haute altitude sont mieux protégées contre l'hypertension pulmonaire hypoxique que celles originaires de la plaine. Cependant, les mécanismes sous jacents ne sont pas bien compris. Chez les Tibétains, la synthèse augmentée par le système respiratoire de monoxyde d'azote (NO) atténue l'hypertension pulmonaire hypoxique. Il a été spéculé que ce mécanisme pourrait représenter un mode généralisé d'adaptation à la haute altitude, mais il n'existe pas de preuve directe qui consume cette hypothèse. Nous avons donc mesuré la pression artérielle pulmonaire (par échocardiographie Doppler) ainsi que la concentration du NO dans l'air exhalé chez 34 Boliviens en bonne santé, nés et ayant toujours vécus en haute altitude (3600 m) et chez 34 Caucasiens apparentés pour l'âge et le sexe, nés en basse altitude mais vivant depuis de nombreuses années à cette même haute altitude (3600 mètres). La pression artérielle pulmonaire (24.3±5.9 vs. 24.7±4.9 mm Hg) et le NO exhalé (19.2±7.2 vs. 22.5±9.5 ppb) étaient similaires chez les Boliviens et les Caucasiens. Il n'y avait aucune corrélation entre la pression artérielle pulmonaire et le NO respiratoire dans les deux groupes. Ces résultats ne fournissent donc aucune évidence que les Boliviens nés en haute altitude sont mieux protégés contre l'hypertension pulmonaire hypoxique que les Caucasiens nés à basse altitude. Cela suggère que l'atténuation de l'hypertension pulmonaire par une synthèse accrue de NO respiratoire ne représente pas un mode universel d'adaptation des populations à la haute altitude. Abstract : There is evidence that high altitude populations may be better protected from hypoxic pulmonary hypertension than low altitude natives, but the underlying mechanism is incompletely understood. In Tibetans, increased pulmonary respiratory NO synthesis attenuates hypoxic pulmonary hypertension. It has been speculated that this mechanism may represent a generalized high altitude adaptation pattern, but direct evidence for this speculation is lacking. We therefore measured systolic pulmonary-artery pressure (Doppler echocardiography) and exhaled nitric oxide (NO) in 34 healthy, middle-aged Bolivian high altitude natives and in 34 age- and sex-matched, well-acclimatized Caucasian low altitude natives living at high altitude (3600 m). The mean ± SD systolic right ventricular to right arterial pressure gradient (24.3 ± 5.9 vs. 24.7 ± 4.9 mmHg) and exhaled NO (19.2 ± 7.2 vs. 22.5 ± 9.5 ppb) were similar in Bolivians and Caucasians. There was no relationship between ,pulmonary-artery pressure and respiratory NO in the two groups. These findings provide no evidence that Bolivian high altitude natives are better protected from hypoxic pulmonary hypertension than Caucasian low altitude natives and suggest that attenuation of pulmonary hypertension by increased respiratory NO synthesis may not represent a universal adaptation pattern in highaltitude populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suicide et les tentatives de suicide des adolescents sont des enjeux de santé publique majeurs. En s'appuyant sur le modèle de soins développé à Genève, nous décrivons les différents temps nécessaires pour accueillir, évaluer et orienter un adolescent pris dans un mouvement suicidaire. Un temps d'accueil et d'évaluation pédiatrique, puis un temps d'évaluation psychiatrique et enfin un temps d'orientation à l'issue duquel est proposée une prise en charge spécifique. En fonction des caractéristiques cliniques du jeune (impulsivité, symptomatologie anxio-dépressive...), de sa capacité d'engagement dans les soins et de la qualité des liens du réseau, la prise en charge sera soit ambulatoire intensive, soit hospitalière. Suicide and suicide attempts of adolescents are major public health issues. Based on a model of care developed in Geneva, we describe the conditions necessary to evaluate and guide a teenager trapped in a suicidal behavior. First of all, there must be some time dedicated to pediatric assessement followed by a psychiatric evaluation and finally, the adolescent can be oriented toward specific treatment. Depending on the clinical characteristics of the young adolescent and according to his willingness to engage himself in intensive follow-up (impulsivity, anxious?--depressive symptomatology...), cares will be given either as outpatient with close monitoring or inpatient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les récents progrès techniques de l'imagerie cérébrale non invasives ont permis d'améliorer la compréhension des différents systèmes fonctionnels cérébraux. Les approches multimodales sont devenues indispensables en recherche, afin d'étudier dans sa globalité les différentes caractéristiques de l'activité neuronale qui sont à la base du fonctionnement cérébral. Dans cette étude combinée d'imagerie par résonance magnétique fonctionnelle (IRMf) et d'électroencéphalographie (EEG), nous avons exploité le potentiel de chacune d'elles, soit respectivement la résolution spatiale et temporelle élevée. Les processus cognitifs, de perception et de mouvement nécessitent le recrutement d'ensembles neuronaux. Dans la première partie de cette thèse nous étudions, grâce à la combinaison des techniques IRMf et EEG, la réponse des aires visuelles lors d'une stimulation qui demande le regroupement d'éléments cohérents appartenant aux deux hémi-champs visuels pour en faire une seule image. Nous utilisons une mesure de synchronisation (EEG de cohérence) comme quantification de l'intégration spatiale inter-hémisphérique et la réponse BOLD (Blood Oxygenation Level Dependent) pour évaluer l'activité cérébrale qui en résulte. L'augmentation de la cohérence de l'EEG dans la bande beta-gamma mesurée au niveau des électrodes occipitales et sa corrélation linéaire avec la réponse BOLD dans les aires de VP/V4, reflète et visualise un ensemble neuronal synchronisé qui est vraisemblablement impliqué dans le regroupement spatial visuel. Ces résultats nous ont permis d'étendre la recherche à l'étude de l'impact que le contenu en fréquence des stimuli a sur la synchronisation. Avec la même approche, nous avons donc identifié les réseaux qui montrent une sensibilité différente à l'intégration des caractéristiques globales ou détaillées des images. En particulier, les données montrent que l'implication des réseaux visuels ventral et dorsal est modulée par le contenu en fréquence des stimuli. Dans la deuxième partie nous avons a testé l'hypothèse que l'augmentation de l'activité cérébrale pendant le processus de regroupement inter-hémisphérique dépend de l'activité des axones calleux qui relient les aires visuelles. Comme le Corps Calleux présente une maturation progressive pendant les deux premières décennies, nous avons analysé le développement de la fonction d'intégration spatiale chez des enfants âgés de 7 à 13 ans et le rôle de la myelinisation des fibres calleuses dans la maturation de l'activité visuelle. Nous avons combiné l'IRMf et la technique de MTI (Magnetization Transfer Imaging) afin de suivre les signes de maturation cérébrale respectivement sous l'aspect fonctionnel et morphologique (myelinisation). Chez lés enfants, les activations associées au processus d'intégration entre les hémi-champs visuels sont, comme chez l'adulte, localisées dans le réseau ventral mais se limitent à une zone plus restreinte. La forte corrélation que le signal BOLD montre avec la myelinisation des fibres du splenium est le signe de la dépendance entre la maturation des fonctions visuelles de haut niveau et celle des connections cortico-corticales. Abstract: Recent advances in non-invasive brain imaging allow the visualization of the different aspects of complex brain dynamics. The approaches based on a combination of imaging techniques facilitate the investigation and the link of multiple aspects of information processing. They are getting a leading tool for understanding the neural basis of various brain functions. Perception, motion, and cognition involve the formation of cooperative neuronal assemblies distributed over the cerebral cortex. In this research, we explore the characteristics of interhemispheric assemblies in the visual brain by taking advantage of the complementary characteristics provided by EEG (electroencephalography) and fMRI (Functional Magnetic Resonance Imaging) techniques. These are the high temporal resolution for EEG and high spatial resolution for fMRI. In the first part of this thesis we investigate the response of the visual areas to the interhemispheric perceptual grouping task. We use EEG coherence as a measure of synchronization and BOLD (Blood Oxygenar tion Level Dependent) response as a measure of the related brain activation. The increase of the interhemispheric EEG coherence restricted to the occipital electrodes and to the EEG beta band and its linear relation to the BOLD responses in VP/V4 area points to a trans-hemispheric synchronous neuronal assembly involved in early perceptual grouping. This result encouraged us to explore the formation of synchronous trans-hemispheric networks induced by the stimuli of various spatial frequencies with this multimodal approach. We have found the involvement of ventral and medio-dorsal visual networks modulated by the spatial frequency content of the stimulus. Thus, based on the combination of EEG coherence and fMRI BOLD data, we have identified visual networks with different sensitivity to integrating low vs. high spatial frequencies. In the second part of this work we test the hypothesis that the increase of brain activity during perceptual grouping depends on the activity of callosal axons interconnecting the visual areas that are involved. To this end, in children of 7-13 years, we investigated functional (functional activation with fMRI) and morphological (myelination of the corpus callosum with Magnetization Transfer Imaging (MTI)) aspects of spatial integration. In children, the activation associated with the spatial integration across visual fields was localized in visual ventral stream and limited to a part of the area activated in adults. The strong correlation between individual BOLD responses in .this area and the myelination of the splenial system of fibers points to myelination as a significant factor in the development of the spatial integration ability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dosage du plomb sanguin a été inclus dans l'enquête MONICA (MONItoring of trends and determinants in CArdiovascular disease) sur un échantillon représentatif de la population des cantons de Fribourg et de Vaud. Les résultats sont présentés en trois sections: 1) Distribution de la plombémie en fonction de quelques variables spécifiques: variables socio-démographiques, facteurs de risque classiques des maladies cardio-vasculaires, variables sur certaines habitudes alimentaires; 2) Analyse discriminante des personnes dans le quartile supérieur de la distribution de la plombémie; 3) Description plus détaillée des 18 cas de plombémie supérieure à 1.5 micromoles/l.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Ce travail de thèse s'articule autour de l'importance de l'évaluation de la fonction vasculaire et des répercussions au niveau central, cardiaque, des perturbations du réseau vasculaire. Les maladies cardiovasculaires sont prédominantes dans notre société et causes de morbidité et mortalité importante. La mesure de la pression artérielle classique reste le moyen le plus utilisé pour suivre la santé des vaisseaux, mais ne reflète pas directement ce qui se passe au niveau du coeur. La tonométrie d'aplanation permet depuis quelques années de mesurer l'onde de pouls radial, et par le biais d'une fonction mathématique de transfert validée, il est possible d'en déduire la forme et Γ amplitude de l'onde de pouls central, donc de la pression aortique centrale. Cette dernière est un reflet bien plus direct de la post-charge cardiaque, et de nombreuses études cliniques actuelles s'intéressent à cette mesure pour stratifier le risque ou évaluer l'effet d'un traitement vasculaire. Toutefois, bien que cet outil soit de plus en plus utilisé, il est rarement précisé si la latéralité de la mesure joue un rôle, sachant que certaines propriétés des membres supérieurs peuvent être affectées par un usage préférentiel (masse musculaire, densité osseuse, diamètre des artères, capillarisation musculaire, et même fonction endothéliale). On a en effet observé que ces divers paramètre étaient tous augmentés sur un bras entraîné. Dès lors on peut se poser la question de l'influence de ces adaptations physiologiques sur la mesure indirecte effectuée par le biais du pouls radial. Nous avons investigué les deux membres supérieurs de sujets jeunes et sédentaires (SED), ainsi que ceux de sujets sportifs avec un développement fortement asymétrique des bras, soit des joueurs de tennis de haut niveau (TEN). Des mesures anthropométriques incluant la composition corporelle et la circonférence des bras et avant-bras ont montré que TEN présente une asymétrie hautement significative aux deux mesures entre le bras dominant (entraîné) et l'autre, ce qui est aussi présent pour la force de serrage (mesurée au dynamomètre de Jamar). L'analyse des courbes centrales de pouls ne montre aucune différence entre les deux membres dans chaque groupe, par contre on peut observer une différence entre SED et TEN, avec un index d'augmentation diastolique qui est 50 % plus élevé chez TEN. Les index d'augmentation systolique sont identiques dans les deux groupes. On peut retenir de cette étude la validité de la méthode de tonométrie d'aplanation quel que soit le bras utilisé (dominant ou non-dominant) et ce même si une asymétrie conséquente est présente. Ces données sont clairement nouvelles et permettent de s'affranchir de cette variable dans la mesure d'un paramètre cardiovasculaire dont l'importance est actuellement grandissante. Les différences d'index diastolique sont expliquées par la fréquence cardiaque et la vitesse de conduction de l'onde de pouls plus basses chez TEN, causant un retard diastolique du retour de l'onde au niveau central, phénomène précédemment bien décrit dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME: Introduction: A Lausanne, les prises en charge en traitement des toxicodépendants sont très majoritairement réalisées par les médecins généralistes en pratique privée. En complémentarité, un centre public universitaire spécialisé a été créé en 1996, le Centre St. Martin (CSM). Les traitements additionnels proposés répondent à une logique de niveaux et séquences de soins. L'orientation des patients sur les structures extérieures en place se réalise dès que possible. Cependant les filières de soins empruntées par ces patients et à fortiori leur évolution suite à leur décharge du CSM restent peu connues. But de la thèse: Le but de cette enquête est de décrire et analyser les filières de soins réalisées par les patients pris en charge au CSM et caractériser les évolutions clinique et sociale qu'ils réalisent depuis leur orientation initiale vers le réseau de soins extérieur. Patients et méthode: Les caractéristiques médico-sociales d'une cohorte de 73 patients reçus consécutivement durant 6 mois (1.7.99 - 31.12.99) avec une demande et une indication de traitement de substitution à la méthadone, ont été établies. L'évolution clinique et l'observance au traitement à 36 ± 3 mois de cette cohorte ont ensuite été mesurées. Résultats: La population de patients pris en charge au CSM présente des caractéristiques médico-psycho¬sociales très précaires avec une polytoxicodépendance par voie intraveineuse pour 56.2 °A des cas. 64.4% sont par ailleurs sans formation, 49.3 % sans logement stable. Une comorbidité psychiatrique est présente dans une large majorité des cas. 62 patients (84.9 %) sur le total étudié de 73 indications consécutives à un traitement de substitution à base de méthadone, ont été retrouvés à 3 ans ± 3 mois de leur début de prise en charge au CSM. Leurs évolutions clinique et psychosociale sont satisfaisantes pour tous les paramètres étudiés et ce, quelle que soit l'option initialement choisie du cadre de soins, en institution publique ou en pratique médicale privée. Ils restent intégrés dans un réseau de soins. Les patients polyconsommateurs par voie intraveineuse d'une combinaison d'héroïne, cocaïne et/ou benzodiazépines (52.5 %), malgré leur faible motivation, parviennent à accéder à un programme structuré : la moitié d'entre eux accepte à un moment donné de leur prise en charge leur admission dans une structure résidentielle. Pour la cohorte étudiée, ces patients représentent 83.3 % des admissions dans ce type de structure. Conclusions: Un programme institutionnel spécialisé, orienté sur la construction d'une complémentarité avec le réseau médico-social en place peut réaliser une rétention et une évolution clinique, en termes de consommations illicites, de psychopathologie et d'intégration sociale, satisfaisantes des patients dans la chaîne thérapeutique. L'orientation dans le réseau médico-social extérieur, chez les médecins praticiens, n'est pas délétère. L'évolution de ces patients diffère peu à 3 ans de celle des patients accueillis et maintenus dans la structure institutionnelle. Les processus de soins sont cependant différents d'un setting à l'autre et les épisodes thérapeutiques nombreux mais peu de patients sont « perdus de vue ». La définition de séquences, modalités et niveaux de soins en fonction des profils présentés par les patients toxicodépendants devrait permettre l'optimisation de la fonctionnalité du réseau médico-social en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Comparaison des performances en qualité d'image des deux types de systèmes CR. Matériels et méthodes: Les performances ont été mesurées au moyen de la fonction de transfert de modulation (FTM), du spectre de bruit, de l'efficacité quantique de détection (DQE),le seuil de détection du contraste en épaisseur d'or et la dose glandulaire moyenne. Les systèmes CR à aiguilles Agfa HM5.0 et Carestream SNP-M1 ont étécomparés aux systèmes à poudre Agfa MM3.0, Fuji ProfectCS et Carestream EHR-M3. Résultats: La FTM à 5mm-1 de Agfa HM5,0 et Carestream SNP-M1 est 0,21 et 0,27, et entre 0,14 et 0,16 pour les systèmes à poudre. Un DQE maximal de 0,51 et 0,5 a étéobtenu pour Agfa HM5,0 et Carestream SNP-M1, et 0,35, 0,50 et 0,34 pour Agfa MM3,0, Fuji Profect et Carestream EHR-M3. Des valeurs de DQE à 5mm-1 de0,18 et 0,13 ont été obtenues pour Agfa HM5,0 et Carestream SNP-M1, et entre 0,04 et 0,065 pour les systèmes à poudre. Les seuils de détection du contrastede Agfa HM5,0 et Carestream SNP-M1 étaient 1,33im et 1,29im, et 1,45im et 1,63im pour Agfa MM3,0 et Fuji Profect. Conclusion: Les systèmes à aiguilles offrent des meilleures FTM et DQE et un seuil de visibilité du contraste plus bas que les systèmes à poudre .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos : Cette étude a pour objet la rémunération du notaire suisse indépendant (notaire latin) sous ses différentes formes. L'organisation suisse de la fonction notariale est telle que tous les cantons ne connaissent pas nécessairement une organisation comparable à celle que l'on retrouve en Romandie, à savoir une délégation de l'activité ministérielle (activité officielle du notaire) à une personne physique indépendante qui exerce le ministère notarial pour son propre compte et sous sa propre responsabilité. Ainsi, certains cantons de Suisse alémanique ont-ils confié l'instrumentation des actes authentiques à des fonctionnaires (notariat d'Etat) ou ont-ils partagé les fonctions ministérielles entre des fonctionnaires d'une part, et des indépendants, d'autre part (notariat mixte). Une minorité de cantons n'ont pas même de corps notarial organisé. Nous concentrons notre examen sur la rémunération des notaires indépendants et laissons volontairement de côté les autres systèmes d'organisation de la fonction notariale. Celui du notariat d'Etat en particulier, où l'officier public n'est pas le créancier de la prétention pécuniaire découlant de l'exercice du ministère ; cette qualité appartient à la collectivité publique qui l'emploie et le rémunère au moyen d'un salaire. Les règles applicables à la rémunération du notaire d'Etat se confondent alors avec celles des autres fonctionnaires et ne justifient probablement pas d'examen particulier en dehors des études qui seraient consacrées à la rémunération des membres de la fonction publique. Par ailleurs, notre étude comparative se limite aux législations cantonales ayant adopté un notariat purement latin, bien que l'on retrouve également des officiers publics exerçant de manière indépendante dans les cantons à notariat mixte. Nous avons en effet considéré que les comparaisons réalisées, notamment s'agissant des tarifs des émoluments notariaux, se prêtaient mal à un examen lorsque le notariat n'est pas exercé de manière uniforme sur l'ensemble du canton et où la charge ministérielle est largement partagée entre des particuliers et des autorités étatiques. Outre son activité principale consistant à exercer le ministère notariale, le notaire latin est fréquemment amené à agir sur une base privée, notamment comme mandataire. Il assume souvent d'autres tâches telles celles d'exécuteur testamentaire, de tuteur ou d'expert nommé par le juge. Nous devons ainsi appréhender la rémunération du notaire, non sous un seul angle, mais bien à la lumière des différents régimes juridiques qui lui sont applicables. Nous avons donc choisi de diviser notre travail en trois parties (Titres I à III) : - une première partie introductive qui traite de l'organisation du notariat, des droits et devoirs généraux du notaire et de sa responsabilité ; - une deuxième partie consacrée au régime juridique de l'émolument de droit public que le notaire perçoit lorsqu'il exerce son ministère ; - une troisième partie relative aux honoraires du notaire pour ses activités relevant du droit privé ou pour certains mandats spéciaux (exécuteur testamentaire, administrateur d'office, expert judiciaire, tuteur, curateur, etc.) ainsi qu'à divers autres aspects liés à sa rémunération : applicabilité des législations fédérales économiques, facturation, garanties de la créance (solidarité, droit de rétention, provision) avec quelques remarques relatives à la taxe sur la valeur ajoutée (TVA), la procédure de recouvrement de la créance du notaire et les obligations de l'officier public dans le domaine de la comptabilité commerciale. Nous avons tenté d'orienter notre réflexion vers certaines considérations d'ordre pratique afin que cette étude puisse - nous l'espérons du moins - rendre quelques services aux praticiens. Nous précisions encore que nous avons volontairement évité d'aborder les questions économiques et politiques liées à la rémunération du notaire indépendant pour nous cantonner à un examen strictement juridique du sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 2004, le département de psychiatrie du centre hospitalier universitaire vaudois (CHUV) offre une prise en charge spécifique pour les patients présentant un premier épisode psychotique. La rupture de soins très fréquente, dès la sortie de l'hôpital, le mauvais pronostic à long terme en fonction de la durée de la psychose non traitée et enfin le taux élevé de tentatives de suicide avant une première hospitalisation se sont avérés suffisamment inquiétants et significatifs pour qu'une prise en charge de ce type puisse obtenir un soutien décisif. Dans l'article qui suit, nous nous proposons de décrire le programme Traitement et intervention précoces dans les troubles psychotiques (TIPP) en mettant en lumière la notion centrale de cette offre de soins, à savoir le rôle du case management. Il s'agira de rappeler brièvement les connaissances actuelles sur les psychoses émergentes, particulièrement la perspective plus optimiste que celle naguère réservée à cette forme de trouble psychique. Nous évoquerons également les offres de soins récentes telles qu'elles se déploient dans différents pays pour nous tourner ensuite plus spécifiquement vers notre expérience lausannoise. C'est à cet égard que nous développerons plus en détails le travail essentiel et spécifique du case manager, fil rouge du programme TIPP au long des trois ans qui le composent. La conclusion portera sur les projets de recherche en cours dédiés à cette population de jeunes patients, avec l'espoir que le changement de paradigme évoqué plus haut, un optimisme raisonnable pour le pronostic, puisse lui-même rester une question ouverte à de nouveaux apports scientifiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ectodysplasine Al (EDA1 ou EDA), un ligand de la famille du TNF, et son récepteur EDAR favorisent le développement des poils, des dents et de plusieurs types de glandes. Chez l'humain, une déficience en EDA cause une dysplasie ectodermique liée à l'X, caractérisée par la genèse défectueuse des phanères. Les souris Tabby, déficientes en Eda, présentent des symptômes similaires. Nous démontrons que les souris Tabby sont en moyenne 7% plus légères que les contrôles au moment du sevrage. Ce phénotype ne dépend pas du génotype des petits, mais exclusivement de celui de la mère, suggérant que l'absence d'EDA perturbe la fonction mammaire. La glande mammaire se développe en plusieurs étapes, principalement à la puberté et pendant la grossesse. Nous avons généré des anticorps pour activer ou inhiber la signalisation d'EDAR. Les anticorps agonistes corrigent le développement de souris ou de chiens déficients en EDA, alors que les antagonistes provoquent une dysplasie ectodermique chez les souris saines. L'exposition répétée de souris Tabby aux anticorps agonistes après le sevrage accroît la taille et la fonction des glandes sébacées, démonstration pharmacologique qu'EDA contrôle l'homéostasie de la glande sébacée adulte. Ces outils seront utiles pour étudier la fonction d'EDA aux diverses étapes du développement de la glande mammaire. Fc-EDAl, un stimulateur d'EDAR, est en phase d'évaluation clinique. Nous avons montré que les structures dépendantes d'EDA qui se forment à différentes étapes du développement répondent à l'action du Fc-EDAl dans des fenêtres temporelles étroites ou larges. De plus, certaines structures peuvent être induites plusieurs jours après le début naturel de leur formation. Alors que la plupart des structures se forment suite à un seul jour d'activation d'EDAR, d'autre demandent un temps de stimulation plus long. La formation des dents est régulée par des signaux activateurs et inhibiteurs. Une forte stimulation d'EDAR spécifiquement appliquée aux deux premières molaires induit des signaux négatifs qui avortent la formation de la troisième molaire, alors qu'une forte stimulation donnée à la troisième molaire la rend hypertrophique tout en induisant parfois une quatrième molaire jamais observée chez les souris de type sauvage ou Tabby. EDA est donc un activateur important de la formation dentaire. Pris dans leur ensemble, ces résultats ont des implications pour la thérapie des dysplasies ectodermiques. - The TNF family ligand Ectodysplasin Al (EDA1 or EDA) and its receptor ED AR regulate embryonic development of hair, teeth and several types of glands. In humans, EDA mutations cause X-linked hypohidrotic ectodermal dysplasia (XLHED), a condition characterized by defective development of skin appendages. £da-deficient (Tabby) mice suffer from similar defects. We observed that Tabby pups at weaning were on average 7% smaller than WT controls, a phenotype that was curiously not linked to the genotype of pups, but to that of mothers, suggesting decreased mammary gland function in the absence of EDA. Mammary glands develop in several steps, most of which are post-natal. We generated monoclonal antibodies to block or activate EDAR signaling. Agonist antibodies rescued developmental defects when administered timely in £cfo-deficient mice and dogs, whereas blocking antibodies induced ectodermal dysplasia in WT mice. Agonist antibodies administered after weaning in £da-deficient mice for several months markedly increased both size and function of sebaceous glands, providing the first demonstration that pharmacological activation of the EDAR pathway in adults can correct important aspects of the dry skin phenotype. This also highlights a role for EDA1 in the homeostasis of adult sebaceous glands. These tools will be useful to study the function of EDA 1 at different stages of mammary gland development. Another EDAR agonist, Fc-EDAl, is currently evaluated in clinical trials. We found that EDA 1-dependent structures forming at different time points during development can respond to Fc-EDAl during time response windows that are narrow or wide. Also, some structures can be triggered up to several days after their normal time of induction. While most structures could be rescued by a single day of EDAR signaling, others required longer exposure times to form. Tooth formation is regulated by activating and inhibitory signals that impact one on the other. When strong EDAR signals were specifically given to the first two molars, overwhelming inhibitory signals completely inhibited formation of the third molar. In contrast, strong signals specifically given to the third molar induced hypertrophy of the later with occasional appearance of a fourth molar never observed in WT or £da-deficient mice. This clearly positions EDA as an important activating signal in tooth formation. Taken together, these results have implications for the therapy of ectodermal dysplasias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.