216 resultados para Stratégie compensatoire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'hyperammonémie est particulièrement toxique pour le cerveau des jeunes patients et entraîne une atrophie corticale, un élargissement des ventricules et des défauts de myélinisation, responsables de retards mentaux et développementaux. Les traitements actuels se limitent à diminuer le plus rapidement possible le taux d'ammoniaque dans l'organisme. L'utilisation de traitements neuroprotecteurs pendant les crises d'hyperammonémie permettrait de contrecarrer les effets neurologiques de l'ammoniaque et de prévenir l'apparition des troubles neurologiques. Au cours de cette thèse, nous avons testé trois stratégies de neuroprotection sur des cultures de cellules en agrégats issues du cortex d'embryons de rats et traitées à l'ammoniaque. - Nous avons tout d'abord testé si l'inhibition de protéines intracellulaires impliquées dans le déclenchement de la mort cellulaire pouvait protéger les cellules de la toxicité de l'ammoniaque. Nous avons montré que L'exposition à l'ammoniaque altérait la viabilité des neurones et des oligodendrocytes, et activait les caspases, la calpaïne et la kinase-5 dépendante des cyclines (cdk5) associée à son activateur p25. Alors que l'inhibition pharmacologique des caspases et de la calpaïne n'a pas permis de protéger les cellules cérébrales, un inhibiteur de la cdk5, appelé roscovitine, a réduit significativement la mort neuronale. L'inhibition de la cdk5 semble donc être une stratégie thérapeutique prometteuse pour prévenir 1es effets toxiques de 1'ammoniaque sur les neurones. - Nous avons ensuite étudié les mécanismes neuroprotecteurs déclenchés par le cerveau en réponse à la toxicité de l'ammoniaque. Nous avons montré que l'ammoniaque induisait la synthèse du facteur neurotrophique ciliaire (CNTF) par les astrocytes, via l'activation de la protéine kinase (MIAPK) p38. D'autre part, l'ajout de CNTF a permis de protéger les oligodendrocytes mais pas les neurones des cultures exposées à l'ammoniaque, via les voies de signalisations JAK/STAT, SAPK/JNK et c-jun. - Dans une dernière partie, nous avons voulu contrecarrer, par l'ajout de créatine, le déficit énergétique cérébral induit par l'ammoniaque. La créatine a permis de protéger des cellules de type astrocytaire mais pas les cellules cérébrales en agrégats. Cette thèse amis en évidence que les stratégies de neuroprotection chez les patients hyperammonémiques nécessiteront de cibler plusieurs voies de signalisation afin de protéger tous les types cellulaires du cerveau. Summary : In pediatric patients, hyperammonemia is mainly caused by urea cycle disorders or other inborn errors of metabolism, and leads to neurological injury with cortical atrophy, ventricular enlargement and demyelination. Children rescued from neonatal hyperammonemia show significant risk of mental retardation and developmental disabilities. The mainstay of therapy is limited to ammonia lowering through dietary restriction and alternative pathway treatments. However, the possibility of using treatments in a neuroprotective goal may be useful to improve the neurological outcome of patients. Thus, the main objective of this work was to investigate intracellular and extracellular signaling pathways altered by ammonia tonicity, so as to identify new potential therapeutic targets. Experiments were conducted in reaggregated developing brain cell cultures exposed to ammonia, as a model for the developing CNS of hyperammonemic young patients. Theses strategies of neuroprotection were tested: - The first strategy consisted in inhibiting intracellular proteins triggering cell death. Our data indicated that ammonia exposure altered the viability of neurons and oligodendrocytes. Apoptosis and proteins involved in the trigger of apoptosis, such as caspases, calpain and cyclin-dependent kinase-5 (cdk5) with its activator p25, were activated by ammonia exposure. While caspases and calpain inhibitors exhibited no protective effects, roscovitine, a cdk5 inhibitor, reduced ammonia-induced neuronal death. This work revealed that inhibition of cdk5 seems a promising strategy to prevent the toxic effects of ammonia on neurons. - The second strategy consisted in mimicking, the endogenous protective mechanisms triggered by ammonia in the brain. Ammonia exposure caused an increase of the ciliary neurotrophic factor (CNTF) expression, through the activation of the p38 mitogen-activated protein kinase (MAPK) in astrocytes. Treatment of cultures exposed to ammonia with exogenous CNTF demonstrated strong protective effects on oligodendrocytes but not on neurons. These protective effects seemed to involve JAK/STAT, SAPK/JNK and c-jun proteins. - The third strategy consisted in preventing the ammonia-induced cerebral energy deficit with creatine. Creatine treatment protected the survival of astrocyte-like cells through MAPKs pathways. In contrast, it had no protective effects in reaggregated developing brain cell cultures exposed to ammonia. The present study suggests that neuroprotective strategies should optimally be directed at multiple targets to prevent ammonia-induced alterations of the different brain cell types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La maladie de Fabry est une maladie métabolique à stockage lysosomal. C'est une maladie héreditaire à transmission récessive qui concerne l'enzyme alpha-Galactosidase A. Le gène de l'alpha-Galactosidase A (GLA) se trouve au niveau du bras long du chromosome X «carté en Xq21.33-Xq22 ». L'enzyme muté ne recouvre plus son rôle catabolisateur et il ne métabolise pas le substrat globotriaosylceramide (Gb3). Par conséquence le Gb3 s'accumule dans tous les tissus. Dans les parois des vaisseaux sanguins le Gb3 s'accumule dans l'endothelium, la tunique interne des vaisseaux sanguins. Ce déficit métabolique se traduit par l'épaississement de la paroi vasculaire, des processus d'infarctus et ischémies du tissu cardiaque, rénal et cérébral. L'implication cardiaque de la maladie de Fabry est décrite chez plus de 78% des patients affectés par la maladie et se manifeste par une hypertrophie cardiaque du ventricule gauche. Toutefois, il n'existe pas de relation étroite entre hypertrophie cardiaque et le Gb3. La sphingosine 1-phosphate à été identifiée dans notre laboratoire et proposée comme facteur de croissance à l'origine du remodelage cardiovasculaire. De plus, la Globotriaosylsphingosine (Lyso-Gb3) à été aussi proposée comme facteur vasoactif chez les patients Fabry. Objectif : L'identification d'un biomarqueur pour le diagnostic et le suivi thérapeutique de la maladie de Fabry représente une domaine d'investigation active en recherche scientifique. Le Gb3 plasmatique ou dans les urines, la biopsie rénale ou cardiaque qui est mis en évidence grâce à la microscopie électronique sous forme de corps concentrique lamellaires, constituent les biomarqueurs classiques de la maladie de Fabry. Dernièrement, le Lyso-Gb3 et le Sphingosine-1 phosphate (S1P) ont été proposés comme marqueurs du remodelage cardiovasculaire. Le but de ce travail est de rassembler et de discuter la littérature concernant ces nouveaux marqueurs et, d'étudier une possible interaction entre Lyso-Gb3 et le S1P. Méthodologie : Rassembler la littérature scientifique et analyser l'implication de ces marqueurs dans la maladie de Fabry et leur effets cardiovasculaires. De plus, un travail expérimental est effectué. Ce travail consiste en l'identification d'une relation possible entre le Lyso-Gb3 et le S1P. Résultats : Avec ce travail on a cherché à actualiser et mettre à jour les notions concernant les biomarqueurs qui prennent place dans cette pathologie et les connaissances qu'on possède à ce jour sur les manifestations cardiovasculaires et neurologiques.La recherche d'un biomarqueur prime par le fait qu'un nombre considerable de patients est sous-diagnostiqués pour la maladie de Fabry et que entre les taux de substrat enzymatique accumulé dans les tissus et l'hypertrophie cardiaque, on peut constater une discordance. Grâce à ce travail expérimental, on a exclue la possibilité d'un effet précurseur du lyso-Gb3 pour le S1P. Nous avons montré que le Lyso-Gb3 est reconnu par les récepteurs du S1P avec des effets commun pour les S1P1-3 et différents pour le S1P2. Les taux du Lyso-Gb3 et du S1P doivent être mesuré chez les patients Fabry et une stratégie thérapeutique doit prendre en compte le rapport S1P/Lyso-Gb3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'antidépresseur chiral venlafaxine (VEN) est à la fois un inhibiteur de la récapture de la sérotonine et de la noradrénaline. Le CYP2D6 et le CYP3A4 contribuent à son métabolisme stéreosélectif. Dix patients génotypés au CYP2D6 et dépressifs (F32x et F33x, ICD-10) ont participé à cette étude ouverte sur les conséquences pharmacocinétiques et pharmacodynamiques d'une « augmentation » avec la carbamazepine chez des non-répondeurs à la venlafaxine. Après une première période de traitement de quatre semaines avec VEN (195 - 52 mg/ jour), le seul patient qui présentait un déficience génétique de CYP2D6 (poor metaboliser), avait les taux plasmatiques de S-VEN et R-VEN les plus élevés, tandis que ceux de R-0-déméthyl-VEN étaient les plus bas dans ce groupe. Comme seulement 4 patients ont été des répondeurs après 4 semaines de traitement, 6 patients ont été inclus dans la deuxième période de traitement combiné VEN et carbamazépine. Cinq patients non-répondeurs ont complété cette deuxième période d'étude de quatre semaines. Chez l'unique non-répondeur au traitement combiné, on pouvait observer à la fin de la période d'étude une diminution importante des deux énantiomères de VEN, 0-desmethy'lvenlafaxine (ODV), N-desmethylvenlafaxine (NDV) et N, 0-didesmethylvenlafaxine (NODV) dans le plasma. Cela suggère un manque de compliance chez ce patient, mais une induction métabolique par la carbamazepine ne peut pas être exclue entièrement. L'administration de la carbamazepine (moyen ± s.d. (range) ; 360 ± 89 (200-400) mg/jour)) pendant quatre semaines n'a pas eu comme résultat une modification significative des concentrations plasmatiques des énantiomères de VEN et de ses métabolites 0- et N-démethylés chez les autres patients. En conclusion, ces observations préliminaires suggèrent qu'une combinaison de VEN et de carbamazepine représente une stratégie intéressante par son efficacité, sa tolérance et l'absence de modifications pharmcocinétiques, mais ces résultats devraient être vérifiés dans une plus grande étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer colorectal est la 3ème cause de décès liée au cancer dans l'Europe de l'Ouest et nécessite une prise en charge pluridisciplinaire. Les thérapies anticancéreuses récentes développées visent à inhiber les voies de signalisation cellulaires responsables de la prolifération des cellules tumorales. L'inhibition de la voie de signalisation cellulaire mTOR, est une stratégie prometteuse. En effet, mTOR est souvent suractivé dans les cellules du cancer colorectal et régule la croissance, la prolifération et la survie cellulaire. De nombreuses études récentes ont démontrés l'importance de l'activité de mTOR dans le développement du cancer colorectal et l'efficacité anti-tumorale des inhibiteurs allostériques de mTOR, telle que la rapamycine. Récemment, une nouvelle classe d'inhibiteur de mTOR, notamment PP242 et NVP-BEZ235, agissant comme inhibiteur ATP- compétitif a été développée. L'efficacité de ces inhibiteurs n'a pas été démontrée dans le contexte du cancer colorectal. Dans cette étude, nous avons comparé l'effet de PP242, un inhibiteur ATP-compétitif de mTOR et NVP-BEZ235, un inhibiteur dual de PI3K/mTOR par rapport à la rapamycine. Nous avons étudié, in vitro, leur effet sur la croissance, la prolifération et la survie cellulaire sur des lignées cellulaires du cancer du colon (LS174, SW480 et DLD-1) et, in vivo, sur la croissance de xénogreffes dans un modèle murin. Nous avons émis l'hypothèse que l'effet des ces nouveaux inhibiteurs seraient plus importants qu'avec la rapamycine. Nous avons observé que le PP242 et le NVP-BEZ235 réduisent significativement et de façon plus marquée que la rapamycine la croissance, la prolifération et la survie cellulaire des cellules LS174T et DLD-1. Ces inhibiteurs réduisent également la prolifération et la survie cellulaire des cellules SW480 alors que celles-ci étaient résistantes à la rapamycine. Nous avons également observé que les inhibiteurs PP242 et NVP-BEZ235 réduisaient la croissance des xénogreffes avec les lignées cellulaires LS174 et SW480. Finalement, nous avons remarqué que l'effet anti-tumoral des inhibiteurs ATP-compétitifs de mTOR était potentialisé par l'U0126, un inhibiteur de MEK/MAPK, souvent activé dans les voies de signalisation cellulaire du cancer colorectal. En conclusion, nous avons observé que les inhibiteurs ATP-compétitifs de mTOR bloquent la croissance de cellules tumorales du cancer colorectal in vitro et in vivo. Ces résultats démontrent que ces inhibiteurs représentent une option thérapeutique prometteuse dans le traitement du cancer colorectal et méritent d'être évalués dans des études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ L'Organisation Mondiale de la Santé (OMS) recommande d'administrer l'oxygène par concentrateurs dans les pays en voie de développement (PVD), les cylindres posant des problèmes logistiques et financiers trop importants. Cette technologie a été proposée aux enfants d'un hôpital sénégalais (Ndioum) qui présentaient les critères d'oxygénation de l'OMS. Les bénéfices cliniques et financiers ont été majeurs. En revanche, les connaissances des soignants sur les diverses techniques d'administration d'oxygène ainsi que les prestations du service de maintenance étaient insuffisantes. L'implantation de concentrateurs doit être encouragée dans les PVD, mais doit respecter une stratégie englobant enseignement, maintenance et suivi de l'opération. Diverses actions correctrices ont été entreprises à Ndioum où plusieurs concentrateurs fonctionnent désormais régulièrement. Summary: The World Health Organisation (WHO) recommends supplying oxygen in developing countries by concentra¬tors because cylinders pose considerable logistic and financial problems. This technology was employed to treat children in a hospital in Ndioum, Senegal, who met the WHO oxygenation criteria. There were clear clinical and financial benefits, but neither the nurses' knowledge of the various techniques of oxygen supply nor the maintenance service were satisfactory. The use of concentra¬tors should be encouraged in developing countries. A strategy including technical training, maintenance and monitoring should be adopted. Corrective actions were undertaken in Ndioum, and several concentrators are now being used on a regular basis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Neonatal stroke occurs in 1 out of 4000 live births and usually leads to serious motor and cognitive disabilities. Ischemic brain injury results from a complex of pathophysiological events that evolve over space and time making it difficult to devise successful therapy. To date, there are no effective treatments for perinatal brain damage. Most clinical trials of neuroprotectaot drugs have failed because of their side-effects. For this reason it is important to find ways to target drugs specifically into the stressed cells. In this study we plan to contribute to the development of an efficient neuroprotective strategy against excitotoxic cell death in the neonate. In order to achieve this goal, several strategies were followed. A recently described phenomenon of induced endocytosis associated with excitotoxicity was more deeply investigated. As a simplified model we used dissociated cortical neurons exposed to an excitotoxic dose of NMDA, and we showed that this phenomenon depends on clathrin and dynamin. Using a model of neonatal focal cerebral ischemia, we demonstrated that the excitotoxicity-related endocytosis targets molecules such as TAT peptides into stressed neurons. These appear to be viable, raising the possibility of using this phenomenon as a doorway for neuroprotection. One part of the project was devoted to the study of the TAT-conjugated JNK inhibitory peptide, D-JNKI1. Adose-response study showed strong neuroprotection over a wide dose-range in the case of delayed administration (either intravenous or intraperitoneal). Since D-JNKI1 is aTAT-linked peptide, we investigated the role of its own NMDA-induced endocytosis in its neuroprotective efficacy. Furthermore, we showed that this endocytosis is JNK dependent, and that D-JNKI1 regulates its own uptake. We additionally studied the different types of cell death involved in a model of neonatal focal cerebral ischemia. Necrosis occurred rapidly in the center of the lesion whereas apoptosis and autophagic cell death occurred late at the lesion border. Inhibiting apoptosis was not protective, but use of autophagy inhibitor 3methyladenine provided a strong neuroprotection. Finally, combining two neuroprotectants that target different intracellular pathways was neuroprotective in a severe model of cerebral ischemia where neither of the drugs was efficient when administered individually. Résumé : L'ischémie néonatale connaît une incidence de 1 naissance sur 4000, entraînant généralement de sérieux dysfonctionnements moteurs et cognitifs. L'ischémie cérébrale résulte d'évènements physiopathologiques complexes qui évoluent dans l'espace et le temps rendant difficile la conception de thérapies efficaces. A l'heure actuelle, aucun traitement n'existe pour lutter contre les accidents vasculaires cérébraux qui se produisent autour de la naissance. La plupart des essais cliniques concernant des molécules neuroprotectrices ont échoué du fait de leurs effets secondaires néfastes. Pour cette raison, il est important de trouver des moyens de cibler les drogues dans les cellules stressées spécifiquement. Dans cette étude nous visons à participer au développement d'une stratégie neuroprotectrice efficace contre l'ischémie cérébrale chez le nouveau-né. Dans ce but, plusieurs stratégies ont été poursuivies. Un nouveau phénomène d'endocytose induite par un stimulus excitotoxique a été récemment décrit. Une partie de cette étude va consister à mieux comprendre ce phénomène. Pour céla, nous avons utilisé comme modèle d'étude simplifié des cultures dissociées de neurones corticaux exposées à une dose excitotoxique de NMDA. Nous avons ainsi montré que cette endocytose associée à l'excitotoxicité dépend de la clathrine et de la dynamine. A l'aide d'un modèle d'ischémie cérébrale focale chez le raton de 12 jours, nous avons démontré que cette endocytose induite par l'excitotoxicité permet de cibler des molécules diverses et en particulier les peptides TAT dans les neurones stressés. Ces neurones fortement endocytiques apparaissent comme étant encore viables, ouvrant la possibilité d'utiliser cette endocytose comme moyen d'entrée pour des molécules thérapeutiques. Une partie du projet a été consacrée à l'étude d'un inhibiteur de la voie JNK, couplé au TAT, appelé D-JNKI1. Des études de dose réponse du D-JNKI1 ont été réalisées chez l'animal, testant les effets d'une administration retardée en injection intraveineuse ou intra péritonéale. Ces études démontrent qu'une large gamme de dose permet d'obCenir une réduction de la taille de la lésion. Comme D-JNK11 est couplé au peptide TAT, nous avons étudié la contribution que sa propre endocytose lors de l'excitotoxicité apporte à ses effets protecteurs. Par ailleurs, nous avons montré que cette endocytose induite par l'excitotoxicité dépend de la voie de signalisation JNK et que D-JNK11 est donc capable de réguler sa propre entrée. Nous avons en parallèle étudié les différents types de mort cellulaires impliqués dans le développement de la lésion dans un modèle sévère d'ischémie cérébrale chez le raton nouveau-né. La mort cellulaire par nécrose se développe rapidement dans le centre de la lésion alors que les morts cellulaires par apoptose et autophagique vont apparaître plus tard et au bord de la lésion. Inhiber l'apoptose n'a pas permis de réduire la taille de la lésion alors que l'utilisation d'un inhibiteur d'autophagie, la 3-méthyladénine, procure une forte neuroprotection. Finalement, la combinaison de deux peptides qui ciblent différentes voies de signalisation intracellulaire permet d'obtenir une bonne protection dans le modèle d'ischémie sévère dans lequel aucun des deux peptides administré séparément n'a donné d'effets bénéfiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary The present thesis work focused on the ecology of benthic invertebrates in the proglacial floodplain of the Rhone in the Swiss Alps. The main glacial Rhone River and a smaller glacial tributary, the Mutt River, joined and entered a braiding multi-thread area. A first part concentrated on the disruption of the longitudinal patterns of environmental conditions and benthic invertebrate fauna in the Rhone by its tributary the Mutt. The Mutt had less harsh environmental conditions, higher taxonomic richness and more abundant zoobenthos compared to the Rhone upstream of the confluence. Although the habitat conditions in the main stream were little modified by the tributary, the fauna was richer and more diverse below the confluence. Colonisation from the Mutt induced the occurrence of faunal elements uncommon of glacial streams in the upper Rhone, where water temperature remains below 4°C. Although the glacial Rhone dominated the system with regard to hydrology and certain environmental conditions, the Mutt tributary has to be seen as the faunal driver of the system. The second part of the study concerned the spatio-temporal differentiation of the habitats and the benthic communities along and across the flood plain. No longitudinal differentiation was found. The spatial transversal differentiation of three habitat types with different environmental characteristics was successfully reflected in the spatial variability of benthic assemblages. This typology separated marginal sites of the flood plain, left bank sites under the influence of the Mutt, and the right bank sites under the influence of the Rh6ne. Faunistic spatial differences were emphasized by the quantitative structure of the fauna, richness, abundances and Simpson index of diversity. Seasonal environmental variability was positively related with Simpson index of diversity and the total richness per site. Low flow conditions were the most favourable season for the fauna and November was characterized by low spatial environmental heterogeneity, high spatial heterogeneity of faunal assemblage, maximum taxonomic richness, a particular taxonomic composition, highest abundances, as well as the highest primary food resources. The third part studied the egg development of three species of Ephemeroptera in the laboratory at 1.5 to 7°C and the ecological implications in the field. Species revealed very contrasting development strategies. Baetis alpinus has a synchronous and efficient egg development, which is faster in warmer habitats, enabling it to exploit short periods of favourable conditions in the floodplain. Ecdyonurus picteti has a very long development time slightly decreasing in warmer conditions. The high degree of individual variation suggests a genetic determination of the degree-days demand. Combined with the glacial local conditions, this strategy leads to an extreme delay of hatching and allows it to develop in very unpredictable habitats. Rhithrogena nivata is the second cold adapted species in Ephemeroptera. The incubation duration is long and success largely depends on the timing of hatching and the discharge conditions. This species is able to exploit extremely unstable and cold habitats where other species are limited by low water temperatures. The fourth part dealt with larval development in different habitats of the floodplain. Addition of data on egg development allowed the description of the life histories of the species from oviposition until emergence. Rhithrogena nivata and loyolaea generally have a two-year development, with the first winter passed as eggs and the second one as larvae. Development of Ecdyonurus picteti is difficult to document but appears to be efficient in a harsh and unpredictable environment. Baetis alpinus was studied separately in four habitats of the floodplain system with contrasting thermal regimes. Differences in success and duration of larval development and in growth rates are emphasised. Subvention mechanisms between habitats by migration of young or grown larvae were demonstrated. Development success and persistence of the populations in the system were thus increased. Emergence was synchronised to the detriment of the optimisation of the adult's size and fecundity. These very different development strategies induce a spatial and temporal distribution in the use of food resources and ecological niches. The last part of this work aimed at the synthesis of the characteristics and the ecological features of three distinct compartments of the system that are the upper Rhone, the Mutt and the floodplain. Their particular role as well as their inter-dependence concerning the structure and the dynamics of the benthic communities was emphasised. Résumé Ce travail de thèse est consacré à l'écologie des invertébrés benthiques dans la zone alluviale proglaciaire du Rhône dans les Alpes suisses. Le Rhône, torrent glaciaire principal, reçoit les eaux de la Mutt, affluent glaciaire secondaire, puis pénètre dans une zone de tressage formée de plusieurs bras. La première partie de l'étude se concentre sur la disruption par la Mutt des processus longitudinaux, tant environnementaux que faunistiques, existants dans le Rhône. Les conditions environnementales régnant dans la Mutt sont moins rudes, la richesse taxonomique plus élevée et le zoobenthos plus abondant que dans le Rhône en amont de la confluence. Bien que les conditions environnementales dans le torrent principal soient peu modifiées par l'affluent, la faune s'avère être plus riche et plus diversifiée en aval de la confluence. La colonisation depuis la Mutt permet l'occurrence de taxons inhabituels dans le Rhône en amont de la confluence, où la température de l'eau se maintient en dessous de 4°C. Bien que le Rhône, torrent glaciaire principal, domine le système du point de vu de l'hydrologie et de certains paramètres environnementaux, l'affluent Mutt doit être considéré comme l'élément structurant la faune dans le système. La deuxième partie concerne la différentiation spatiale et temporelle des habitats et des communautés benthiques à travers la plaine alluviale. Aucune différentiation longitudinale n'a été mise en évidence. La différentiation transversale de trois types d'habitats sur la base des caractéristiques environnementales a été confirmée par la variabilité spatiale de la faune. Cette typologie sépare les sites marginaux de la plaine alluviale, ceux sous l'influence de la Mutt (en rive gauche) et ceux sous l'influence du Rhône amont (en rive droite). Les différences spatiales de la faune sont mises en évidence par la structure quantitative de la faune, la richesse, les abondances et l'indice de diversité de Simpson. La variabilité saisonnière du milieu est positivement liée avec l'indice de diversité de Simpson et la richesse totale par site. L'étiage correspond à la période la plus favorable pour la faune et novembre réunit des conditions de faible hétérogénéité spatiale du milieu, de forte hétérogénéité spatiale de la faune, une richesse taxonomique maximale, une composition faunistique particulière, les abondances ainsi que les ressources primaires les plus élevées. La troisième partie est consacrée à l'étude du développement des oeufs de trois espèces d'Ephémères au laboratoire à des températures de 1.5 à 7°C, ainsi qu'aux implications écologiques sur le terrain. Ces espèces présentent des stratégies de développement très contrastées. Baetis alpinus a un développement synchrone et efficace, plus rapide en milieu plus chaud et lui permettant d'exploiter les courtes périodes de conditions favorables. Ecdyonurus picteti présente une durée de développement très longue, diminuant légèrement dans des conditions plus chaudes. L'importante variation interindividuelle suggère un déterminisme génétique de la durée de développement. Cette stratégie, associée aux conditions locales, conduit à un décalage extrême des éclosions et permet à l'espèce de se développer dans des habitats imprévisibles. Rhithrogena nivata est la seconde espèce d'Ephémères présentant une adaptation au froid. L'incubation des oeufs est longue et son succès dépend de la période des éclosions et des conditions hydrologiques. Cette espèce est capable d'exploiter des habitats extrêmement instables et froids, où la température est facteur limitant pour d'autres espèces. La quatrième partie traite du développement larvaire dans différents habitats de la plaine alluviale. Le développement complet est décrit pour les espèces étudiées de la ponte jusqu'à l'émergence. Rhithrogena nivata et loyolaea atteignent généralement le stade adulte en deux ans, le premier hiver étant passé sous forme d'oeuf et le second sous forme de larve. Le développement de Ecdyonurus picteti est difficile à documenter, mais s'avère cependant efficace dans un environnement rude et imprévisible. Baetis alpinus a été étudié séparément dans quatre habitats de la plaine ayant des régimes thermiques contrastés. La réussite et la durée du développement embryonnaire ainsi que les taux de croissance y sont variables. Des mécanismes de subvention entre habitats sont possibles par la migration de larves juvéniles ou plus développées, augmentant ainsi la réussite du développement et le maintien des populations dans le système. L'émergence devient synchrone, au détriment de l'optimisation de la taille et de la fécondité des adultes. Ces stratégies très différentes induisent une distribution spatiale et temporelle dans l'usage des ressources et des niches écologiques. La dernière partie synthétise les caractéristiques écologiques des trois compartiments du système que sont le Rhône amont, la Mutt et la zone alluviale. Leurs rôles particuliers et leurs interdépendances du point de vue de la structure et de la dynamique des communautés benthiques sont mis en avant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.