939 resultados para Stratégie posturale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'hyperammonémie est particulièrement toxique pour le cerveau des jeunes patients et entraîne une atrophie corticale, un élargissement des ventricules et des défauts de myélinisation, responsables de retards mentaux et développementaux. Les traitements actuels se limitent à diminuer le plus rapidement possible le taux d'ammoniaque dans l'organisme. L'utilisation de traitements neuroprotecteurs pendant les crises d'hyperammonémie permettrait de contrecarrer les effets neurologiques de l'ammoniaque et de prévenir l'apparition des troubles neurologiques. Au cours de cette thèse, nous avons testé trois stratégies de neuroprotection sur des cultures de cellules en agrégats issues du cortex d'embryons de rats et traitées à l'ammoniaque. - Nous avons tout d'abord testé si l'inhibition de protéines intracellulaires impliquées dans le déclenchement de la mort cellulaire pouvait protéger les cellules de la toxicité de l'ammoniaque. Nous avons montré que L'exposition à l'ammoniaque altérait la viabilité des neurones et des oligodendrocytes, et activait les caspases, la calpaïne et la kinase-5 dépendante des cyclines (cdk5) associée à son activateur p25. Alors que l'inhibition pharmacologique des caspases et de la calpaïne n'a pas permis de protéger les cellules cérébrales, un inhibiteur de la cdk5, appelé roscovitine, a réduit significativement la mort neuronale. L'inhibition de la cdk5 semble donc être une stratégie thérapeutique prometteuse pour prévenir 1es effets toxiques de 1'ammoniaque sur les neurones. - Nous avons ensuite étudié les mécanismes neuroprotecteurs déclenchés par le cerveau en réponse à la toxicité de l'ammoniaque. Nous avons montré que l'ammoniaque induisait la synthèse du facteur neurotrophique ciliaire (CNTF) par les astrocytes, via l'activation de la protéine kinase (MIAPK) p38. D'autre part, l'ajout de CNTF a permis de protéger les oligodendrocytes mais pas les neurones des cultures exposées à l'ammoniaque, via les voies de signalisations JAK/STAT, SAPK/JNK et c-jun. - Dans une dernière partie, nous avons voulu contrecarrer, par l'ajout de créatine, le déficit énergétique cérébral induit par l'ammoniaque. La créatine a permis de protéger des cellules de type astrocytaire mais pas les cellules cérébrales en agrégats. Cette thèse amis en évidence que les stratégies de neuroprotection chez les patients hyperammonémiques nécessiteront de cibler plusieurs voies de signalisation afin de protéger tous les types cellulaires du cerveau. Summary : In pediatric patients, hyperammonemia is mainly caused by urea cycle disorders or other inborn errors of metabolism, and leads to neurological injury with cortical atrophy, ventricular enlargement and demyelination. Children rescued from neonatal hyperammonemia show significant risk of mental retardation and developmental disabilities. The mainstay of therapy is limited to ammonia lowering through dietary restriction and alternative pathway treatments. However, the possibility of using treatments in a neuroprotective goal may be useful to improve the neurological outcome of patients. Thus, the main objective of this work was to investigate intracellular and extracellular signaling pathways altered by ammonia tonicity, so as to identify new potential therapeutic targets. Experiments were conducted in reaggregated developing brain cell cultures exposed to ammonia, as a model for the developing CNS of hyperammonemic young patients. Theses strategies of neuroprotection were tested: - The first strategy consisted in inhibiting intracellular proteins triggering cell death. Our data indicated that ammonia exposure altered the viability of neurons and oligodendrocytes. Apoptosis and proteins involved in the trigger of apoptosis, such as caspases, calpain and cyclin-dependent kinase-5 (cdk5) with its activator p25, were activated by ammonia exposure. While caspases and calpain inhibitors exhibited no protective effects, roscovitine, a cdk5 inhibitor, reduced ammonia-induced neuronal death. This work revealed that inhibition of cdk5 seems a promising strategy to prevent the toxic effects of ammonia on neurons. - The second strategy consisted in mimicking, the endogenous protective mechanisms triggered by ammonia in the brain. Ammonia exposure caused an increase of the ciliary neurotrophic factor (CNTF) expression, through the activation of the p38 mitogen-activated protein kinase (MAPK) in astrocytes. Treatment of cultures exposed to ammonia with exogenous CNTF demonstrated strong protective effects on oligodendrocytes but not on neurons. These protective effects seemed to involve JAK/STAT, SAPK/JNK and c-jun proteins. - The third strategy consisted in preventing the ammonia-induced cerebral energy deficit with creatine. Creatine treatment protected the survival of astrocyte-like cells through MAPKs pathways. In contrast, it had no protective effects in reaggregated developing brain cell cultures exposed to ammonia. The present study suggests that neuroprotective strategies should optimally be directed at multiple targets to prevent ammonia-induced alterations of the different brain cell types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La maladie de Fabry est une maladie métabolique à stockage lysosomal. C'est une maladie héreditaire à transmission récessive qui concerne l'enzyme alpha-Galactosidase A. Le gène de l'alpha-Galactosidase A (GLA) se trouve au niveau du bras long du chromosome X «carté en Xq21.33-Xq22 ». L'enzyme muté ne recouvre plus son rôle catabolisateur et il ne métabolise pas le substrat globotriaosylceramide (Gb3). Par conséquence le Gb3 s'accumule dans tous les tissus. Dans les parois des vaisseaux sanguins le Gb3 s'accumule dans l'endothelium, la tunique interne des vaisseaux sanguins. Ce déficit métabolique se traduit par l'épaississement de la paroi vasculaire, des processus d'infarctus et ischémies du tissu cardiaque, rénal et cérébral. L'implication cardiaque de la maladie de Fabry est décrite chez plus de 78% des patients affectés par la maladie et se manifeste par une hypertrophie cardiaque du ventricule gauche. Toutefois, il n'existe pas de relation étroite entre hypertrophie cardiaque et le Gb3. La sphingosine 1-phosphate à été identifiée dans notre laboratoire et proposée comme facteur de croissance à l'origine du remodelage cardiovasculaire. De plus, la Globotriaosylsphingosine (Lyso-Gb3) à été aussi proposée comme facteur vasoactif chez les patients Fabry. Objectif : L'identification d'un biomarqueur pour le diagnostic et le suivi thérapeutique de la maladie de Fabry représente une domaine d'investigation active en recherche scientifique. Le Gb3 plasmatique ou dans les urines, la biopsie rénale ou cardiaque qui est mis en évidence grâce à la microscopie électronique sous forme de corps concentrique lamellaires, constituent les biomarqueurs classiques de la maladie de Fabry. Dernièrement, le Lyso-Gb3 et le Sphingosine-1 phosphate (S1P) ont été proposés comme marqueurs du remodelage cardiovasculaire. Le but de ce travail est de rassembler et de discuter la littérature concernant ces nouveaux marqueurs et, d'étudier une possible interaction entre Lyso-Gb3 et le S1P. Méthodologie : Rassembler la littérature scientifique et analyser l'implication de ces marqueurs dans la maladie de Fabry et leur effets cardiovasculaires. De plus, un travail expérimental est effectué. Ce travail consiste en l'identification d'une relation possible entre le Lyso-Gb3 et le S1P. Résultats : Avec ce travail on a cherché à actualiser et mettre à jour les notions concernant les biomarqueurs qui prennent place dans cette pathologie et les connaissances qu'on possède à ce jour sur les manifestations cardiovasculaires et neurologiques.La recherche d'un biomarqueur prime par le fait qu'un nombre considerable de patients est sous-diagnostiqués pour la maladie de Fabry et que entre les taux de substrat enzymatique accumulé dans les tissus et l'hypertrophie cardiaque, on peut constater une discordance. Grâce à ce travail expérimental, on a exclue la possibilité d'un effet précurseur du lyso-Gb3 pour le S1P. Nous avons montré que le Lyso-Gb3 est reconnu par les récepteurs du S1P avec des effets commun pour les S1P1-3 et différents pour le S1P2. Les taux du Lyso-Gb3 et du S1P doivent être mesuré chez les patients Fabry et une stratégie thérapeutique doit prendre en compte le rapport S1P/Lyso-Gb3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'antidépresseur chiral venlafaxine (VEN) est à la fois un inhibiteur de la récapture de la sérotonine et de la noradrénaline. Le CYP2D6 et le CYP3A4 contribuent à son métabolisme stéreosélectif. Dix patients génotypés au CYP2D6 et dépressifs (F32x et F33x, ICD-10) ont participé à cette étude ouverte sur les conséquences pharmacocinétiques et pharmacodynamiques d'une « augmentation » avec la carbamazepine chez des non-répondeurs à la venlafaxine. Après une première période de traitement de quatre semaines avec VEN (195 - 52 mg/ jour), le seul patient qui présentait un déficience génétique de CYP2D6 (poor metaboliser), avait les taux plasmatiques de S-VEN et R-VEN les plus élevés, tandis que ceux de R-0-déméthyl-VEN étaient les plus bas dans ce groupe. Comme seulement 4 patients ont été des répondeurs après 4 semaines de traitement, 6 patients ont été inclus dans la deuxième période de traitement combiné VEN et carbamazépine. Cinq patients non-répondeurs ont complété cette deuxième période d'étude de quatre semaines. Chez l'unique non-répondeur au traitement combiné, on pouvait observer à la fin de la période d'étude une diminution importante des deux énantiomères de VEN, 0-desmethy'lvenlafaxine (ODV), N-desmethylvenlafaxine (NDV) et N, 0-didesmethylvenlafaxine (NODV) dans le plasma. Cela suggère un manque de compliance chez ce patient, mais une induction métabolique par la carbamazepine ne peut pas être exclue entièrement. L'administration de la carbamazepine (moyen ± s.d. (range) ; 360 ± 89 (200-400) mg/jour)) pendant quatre semaines n'a pas eu comme résultat une modification significative des concentrations plasmatiques des énantiomères de VEN et de ses métabolites 0- et N-démethylés chez les autres patients. En conclusion, ces observations préliminaires suggèrent qu'une combinaison de VEN et de carbamazepine représente une stratégie intéressante par son efficacité, sa tolérance et l'absence de modifications pharmcocinétiques, mais ces résultats devraient être vérifiés dans une plus grande étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer colorectal est la 3ème cause de décès liée au cancer dans l'Europe de l'Ouest et nécessite une prise en charge pluridisciplinaire. Les thérapies anticancéreuses récentes développées visent à inhiber les voies de signalisation cellulaires responsables de la prolifération des cellules tumorales. L'inhibition de la voie de signalisation cellulaire mTOR, est une stratégie prometteuse. En effet, mTOR est souvent suractivé dans les cellules du cancer colorectal et régule la croissance, la prolifération et la survie cellulaire. De nombreuses études récentes ont démontrés l'importance de l'activité de mTOR dans le développement du cancer colorectal et l'efficacité anti-tumorale des inhibiteurs allostériques de mTOR, telle que la rapamycine. Récemment, une nouvelle classe d'inhibiteur de mTOR, notamment PP242 et NVP-BEZ235, agissant comme inhibiteur ATP- compétitif a été développée. L'efficacité de ces inhibiteurs n'a pas été démontrée dans le contexte du cancer colorectal. Dans cette étude, nous avons comparé l'effet de PP242, un inhibiteur ATP-compétitif de mTOR et NVP-BEZ235, un inhibiteur dual de PI3K/mTOR par rapport à la rapamycine. Nous avons étudié, in vitro, leur effet sur la croissance, la prolifération et la survie cellulaire sur des lignées cellulaires du cancer du colon (LS174, SW480 et DLD-1) et, in vivo, sur la croissance de xénogreffes dans un modèle murin. Nous avons émis l'hypothèse que l'effet des ces nouveaux inhibiteurs seraient plus importants qu'avec la rapamycine. Nous avons observé que le PP242 et le NVP-BEZ235 réduisent significativement et de façon plus marquée que la rapamycine la croissance, la prolifération et la survie cellulaire des cellules LS174T et DLD-1. Ces inhibiteurs réduisent également la prolifération et la survie cellulaire des cellules SW480 alors que celles-ci étaient résistantes à la rapamycine. Nous avons également observé que les inhibiteurs PP242 et NVP-BEZ235 réduisaient la croissance des xénogreffes avec les lignées cellulaires LS174 et SW480. Finalement, nous avons remarqué que l'effet anti-tumoral des inhibiteurs ATP-compétitifs de mTOR était potentialisé par l'U0126, un inhibiteur de MEK/MAPK, souvent activé dans les voies de signalisation cellulaire du cancer colorectal. En conclusion, nous avons observé que les inhibiteurs ATP-compétitifs de mTOR bloquent la croissance de cellules tumorales du cancer colorectal in vitro et in vivo. Ces résultats démontrent que ces inhibiteurs représentent une option thérapeutique prometteuse dans le traitement du cancer colorectal et méritent d'être évalués dans des études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ L'Organisation Mondiale de la Santé (OMS) recommande d'administrer l'oxygène par concentrateurs dans les pays en voie de développement (PVD), les cylindres posant des problèmes logistiques et financiers trop importants. Cette technologie a été proposée aux enfants d'un hôpital sénégalais (Ndioum) qui présentaient les critères d'oxygénation de l'OMS. Les bénéfices cliniques et financiers ont été majeurs. En revanche, les connaissances des soignants sur les diverses techniques d'administration d'oxygène ainsi que les prestations du service de maintenance étaient insuffisantes. L'implantation de concentrateurs doit être encouragée dans les PVD, mais doit respecter une stratégie englobant enseignement, maintenance et suivi de l'opération. Diverses actions correctrices ont été entreprises à Ndioum où plusieurs concentrateurs fonctionnent désormais régulièrement. Summary: The World Health Organisation (WHO) recommends supplying oxygen in developing countries by concentra¬tors because cylinders pose considerable logistic and financial problems. This technology was employed to treat children in a hospital in Ndioum, Senegal, who met the WHO oxygenation criteria. There were clear clinical and financial benefits, but neither the nurses' knowledge of the various techniques of oxygen supply nor the maintenance service were satisfactory. The use of concentra¬tors should be encouraged in developing countries. A strategy including technical training, maintenance and monitoring should be adopted. Corrective actions were undertaken in Ndioum, and several concentrators are now being used on a regular basis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Neonatal stroke occurs in 1 out of 4000 live births and usually leads to serious motor and cognitive disabilities. Ischemic brain injury results from a complex of pathophysiological events that evolve over space and time making it difficult to devise successful therapy. To date, there are no effective treatments for perinatal brain damage. Most clinical trials of neuroprotectaot drugs have failed because of their side-effects. For this reason it is important to find ways to target drugs specifically into the stressed cells. In this study we plan to contribute to the development of an efficient neuroprotective strategy against excitotoxic cell death in the neonate. In order to achieve this goal, several strategies were followed. A recently described phenomenon of induced endocytosis associated with excitotoxicity was more deeply investigated. As a simplified model we used dissociated cortical neurons exposed to an excitotoxic dose of NMDA, and we showed that this phenomenon depends on clathrin and dynamin. Using a model of neonatal focal cerebral ischemia, we demonstrated that the excitotoxicity-related endocytosis targets molecules such as TAT peptides into stressed neurons. These appear to be viable, raising the possibility of using this phenomenon as a doorway for neuroprotection. One part of the project was devoted to the study of the TAT-conjugated JNK inhibitory peptide, D-JNKI1. Adose-response study showed strong neuroprotection over a wide dose-range in the case of delayed administration (either intravenous or intraperitoneal). Since D-JNKI1 is aTAT-linked peptide, we investigated the role of its own NMDA-induced endocytosis in its neuroprotective efficacy. Furthermore, we showed that this endocytosis is JNK dependent, and that D-JNKI1 regulates its own uptake. We additionally studied the different types of cell death involved in a model of neonatal focal cerebral ischemia. Necrosis occurred rapidly in the center of the lesion whereas apoptosis and autophagic cell death occurred late at the lesion border. Inhibiting apoptosis was not protective, but use of autophagy inhibitor 3methyladenine provided a strong neuroprotection. Finally, combining two neuroprotectants that target different intracellular pathways was neuroprotective in a severe model of cerebral ischemia where neither of the drugs was efficient when administered individually. Résumé : L'ischémie néonatale connaît une incidence de 1 naissance sur 4000, entraînant généralement de sérieux dysfonctionnements moteurs et cognitifs. L'ischémie cérébrale résulte d'évènements physiopathologiques complexes qui évoluent dans l'espace et le temps rendant difficile la conception de thérapies efficaces. A l'heure actuelle, aucun traitement n'existe pour lutter contre les accidents vasculaires cérébraux qui se produisent autour de la naissance. La plupart des essais cliniques concernant des molécules neuroprotectrices ont échoué du fait de leurs effets secondaires néfastes. Pour cette raison, il est important de trouver des moyens de cibler les drogues dans les cellules stressées spécifiquement. Dans cette étude nous visons à participer au développement d'une stratégie neuroprotectrice efficace contre l'ischémie cérébrale chez le nouveau-né. Dans ce but, plusieurs stratégies ont été poursuivies. Un nouveau phénomène d'endocytose induite par un stimulus excitotoxique a été récemment décrit. Une partie de cette étude va consister à mieux comprendre ce phénomène. Pour céla, nous avons utilisé comme modèle d'étude simplifié des cultures dissociées de neurones corticaux exposées à une dose excitotoxique de NMDA. Nous avons ainsi montré que cette endocytose associée à l'excitotoxicité dépend de la clathrine et de la dynamine. A l'aide d'un modèle d'ischémie cérébrale focale chez le raton de 12 jours, nous avons démontré que cette endocytose induite par l'excitotoxicité permet de cibler des molécules diverses et en particulier les peptides TAT dans les neurones stressés. Ces neurones fortement endocytiques apparaissent comme étant encore viables, ouvrant la possibilité d'utiliser cette endocytose comme moyen d'entrée pour des molécules thérapeutiques. Une partie du projet a été consacrée à l'étude d'un inhibiteur de la voie JNK, couplé au TAT, appelé D-JNKI1. Des études de dose réponse du D-JNKI1 ont été réalisées chez l'animal, testant les effets d'une administration retardée en injection intraveineuse ou intra péritonéale. Ces études démontrent qu'une large gamme de dose permet d'obCenir une réduction de la taille de la lésion. Comme D-JNK11 est couplé au peptide TAT, nous avons étudié la contribution que sa propre endocytose lors de l'excitotoxicité apporte à ses effets protecteurs. Par ailleurs, nous avons montré que cette endocytose induite par l'excitotoxicité dépend de la voie de signalisation JNK et que D-JNK11 est donc capable de réguler sa propre entrée. Nous avons en parallèle étudié les différents types de mort cellulaires impliqués dans le développement de la lésion dans un modèle sévère d'ischémie cérébrale chez le raton nouveau-né. La mort cellulaire par nécrose se développe rapidement dans le centre de la lésion alors que les morts cellulaires par apoptose et autophagique vont apparaître plus tard et au bord de la lésion. Inhiber l'apoptose n'a pas permis de réduire la taille de la lésion alors que l'utilisation d'un inhibiteur d'autophagie, la 3-méthyladénine, procure une forte neuroprotection. Finalement, la combinaison de deux peptides qui ciblent différentes voies de signalisation intracellulaire permet d'obtenir une bonne protection dans le modèle d'ischémie sévère dans lequel aucun des deux peptides administré séparément n'a donné d'effets bénéfiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary The present thesis work focused on the ecology of benthic invertebrates in the proglacial floodplain of the Rhone in the Swiss Alps. The main glacial Rhone River and a smaller glacial tributary, the Mutt River, joined and entered a braiding multi-thread area. A first part concentrated on the disruption of the longitudinal patterns of environmental conditions and benthic invertebrate fauna in the Rhone by its tributary the Mutt. The Mutt had less harsh environmental conditions, higher taxonomic richness and more abundant zoobenthos compared to the Rhone upstream of the confluence. Although the habitat conditions in the main stream were little modified by the tributary, the fauna was richer and more diverse below the confluence. Colonisation from the Mutt induced the occurrence of faunal elements uncommon of glacial streams in the upper Rhone, where water temperature remains below 4°C. Although the glacial Rhone dominated the system with regard to hydrology and certain environmental conditions, the Mutt tributary has to be seen as the faunal driver of the system. The second part of the study concerned the spatio-temporal differentiation of the habitats and the benthic communities along and across the flood plain. No longitudinal differentiation was found. The spatial transversal differentiation of three habitat types with different environmental characteristics was successfully reflected in the spatial variability of benthic assemblages. This typology separated marginal sites of the flood plain, left bank sites under the influence of the Mutt, and the right bank sites under the influence of the Rh6ne. Faunistic spatial differences were emphasized by the quantitative structure of the fauna, richness, abundances and Simpson index of diversity. Seasonal environmental variability was positively related with Simpson index of diversity and the total richness per site. Low flow conditions were the most favourable season for the fauna and November was characterized by low spatial environmental heterogeneity, high spatial heterogeneity of faunal assemblage, maximum taxonomic richness, a particular taxonomic composition, highest abundances, as well as the highest primary food resources. The third part studied the egg development of three species of Ephemeroptera in the laboratory at 1.5 to 7°C and the ecological implications in the field. Species revealed very contrasting development strategies. Baetis alpinus has a synchronous and efficient egg development, which is faster in warmer habitats, enabling it to exploit short periods of favourable conditions in the floodplain. Ecdyonurus picteti has a very long development time slightly decreasing in warmer conditions. The high degree of individual variation suggests a genetic determination of the degree-days demand. Combined with the glacial local conditions, this strategy leads to an extreme delay of hatching and allows it to develop in very unpredictable habitats. Rhithrogena nivata is the second cold adapted species in Ephemeroptera. The incubation duration is long and success largely depends on the timing of hatching and the discharge conditions. This species is able to exploit extremely unstable and cold habitats where other species are limited by low water temperatures. The fourth part dealt with larval development in different habitats of the floodplain. Addition of data on egg development allowed the description of the life histories of the species from oviposition until emergence. Rhithrogena nivata and loyolaea generally have a two-year development, with the first winter passed as eggs and the second one as larvae. Development of Ecdyonurus picteti is difficult to document but appears to be efficient in a harsh and unpredictable environment. Baetis alpinus was studied separately in four habitats of the floodplain system with contrasting thermal regimes. Differences in success and duration of larval development and in growth rates are emphasised. Subvention mechanisms between habitats by migration of young or grown larvae were demonstrated. Development success and persistence of the populations in the system were thus increased. Emergence was synchronised to the detriment of the optimisation of the adult's size and fecundity. These very different development strategies induce a spatial and temporal distribution in the use of food resources and ecological niches. The last part of this work aimed at the synthesis of the characteristics and the ecological features of three distinct compartments of the system that are the upper Rhone, the Mutt and the floodplain. Their particular role as well as their inter-dependence concerning the structure and the dynamics of the benthic communities was emphasised. Résumé Ce travail de thèse est consacré à l'écologie des invertébrés benthiques dans la zone alluviale proglaciaire du Rhône dans les Alpes suisses. Le Rhône, torrent glaciaire principal, reçoit les eaux de la Mutt, affluent glaciaire secondaire, puis pénètre dans une zone de tressage formée de plusieurs bras. La première partie de l'étude se concentre sur la disruption par la Mutt des processus longitudinaux, tant environnementaux que faunistiques, existants dans le Rhône. Les conditions environnementales régnant dans la Mutt sont moins rudes, la richesse taxonomique plus élevée et le zoobenthos plus abondant que dans le Rhône en amont de la confluence. Bien que les conditions environnementales dans le torrent principal soient peu modifiées par l'affluent, la faune s'avère être plus riche et plus diversifiée en aval de la confluence. La colonisation depuis la Mutt permet l'occurrence de taxons inhabituels dans le Rhône en amont de la confluence, où la température de l'eau se maintient en dessous de 4°C. Bien que le Rhône, torrent glaciaire principal, domine le système du point de vu de l'hydrologie et de certains paramètres environnementaux, l'affluent Mutt doit être considéré comme l'élément structurant la faune dans le système. La deuxième partie concerne la différentiation spatiale et temporelle des habitats et des communautés benthiques à travers la plaine alluviale. Aucune différentiation longitudinale n'a été mise en évidence. La différentiation transversale de trois types d'habitats sur la base des caractéristiques environnementales a été confirmée par la variabilité spatiale de la faune. Cette typologie sépare les sites marginaux de la plaine alluviale, ceux sous l'influence de la Mutt (en rive gauche) et ceux sous l'influence du Rhône amont (en rive droite). Les différences spatiales de la faune sont mises en évidence par la structure quantitative de la faune, la richesse, les abondances et l'indice de diversité de Simpson. La variabilité saisonnière du milieu est positivement liée avec l'indice de diversité de Simpson et la richesse totale par site. L'étiage correspond à la période la plus favorable pour la faune et novembre réunit des conditions de faible hétérogénéité spatiale du milieu, de forte hétérogénéité spatiale de la faune, une richesse taxonomique maximale, une composition faunistique particulière, les abondances ainsi que les ressources primaires les plus élevées. La troisième partie est consacrée à l'étude du développement des oeufs de trois espèces d'Ephémères au laboratoire à des températures de 1.5 à 7°C, ainsi qu'aux implications écologiques sur le terrain. Ces espèces présentent des stratégies de développement très contrastées. Baetis alpinus a un développement synchrone et efficace, plus rapide en milieu plus chaud et lui permettant d'exploiter les courtes périodes de conditions favorables. Ecdyonurus picteti présente une durée de développement très longue, diminuant légèrement dans des conditions plus chaudes. L'importante variation interindividuelle suggère un déterminisme génétique de la durée de développement. Cette stratégie, associée aux conditions locales, conduit à un décalage extrême des éclosions et permet à l'espèce de se développer dans des habitats imprévisibles. Rhithrogena nivata est la seconde espèce d'Ephémères présentant une adaptation au froid. L'incubation des oeufs est longue et son succès dépend de la période des éclosions et des conditions hydrologiques. Cette espèce est capable d'exploiter des habitats extrêmement instables et froids, où la température est facteur limitant pour d'autres espèces. La quatrième partie traite du développement larvaire dans différents habitats de la plaine alluviale. Le développement complet est décrit pour les espèces étudiées de la ponte jusqu'à l'émergence. Rhithrogena nivata et loyolaea atteignent généralement le stade adulte en deux ans, le premier hiver étant passé sous forme d'oeuf et le second sous forme de larve. Le développement de Ecdyonurus picteti est difficile à documenter, mais s'avère cependant efficace dans un environnement rude et imprévisible. Baetis alpinus a été étudié séparément dans quatre habitats de la plaine ayant des régimes thermiques contrastés. La réussite et la durée du développement embryonnaire ainsi que les taux de croissance y sont variables. Des mécanismes de subvention entre habitats sont possibles par la migration de larves juvéniles ou plus développées, augmentant ainsi la réussite du développement et le maintien des populations dans le système. L'émergence devient synchrone, au détriment de l'optimisation de la taille et de la fécondité des adultes. Ces stratégies très différentes induisent une distribution spatiale et temporelle dans l'usage des ressources et des niches écologiques. La dernière partie synthétise les caractéristiques écologiques des trois compartiments du système que sont le Rhône amont, la Mutt et la zone alluviale. Leurs rôles particuliers et leurs interdépendances du point de vue de la structure et de la dynamique des communautés benthiques sont mis en avant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quel défenseur ne s'est pas senti désarmé par les résultats d'une¦expertise ADN rapportant une correspondance entre une trace¦trouvée sur une scène de crime et son client? Ce sentiment est¦largement répandu auprès des avocats pénalistes. Souvent, la bataille¦n'est pourtant pas perdue à ce stade, comme l'illustrent¦deux arrêts récents du Tribunal pénal fédéral, et l'accusé n'a pas¦toujours intérêt à se taire face à des indices forensiques incriminants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines portions des agglomérations (poches de pauvreté de centre-ville, couronnes suburbaines dégradées, espaces périurbains sans aménité), un cumul entre des inégalités sociales (pauvreté, chômage, etc.) et environnementales (exposition au bruit, aux risques industriels, etc.) peut être observé. La persistance de ces inégalités croisées dans le temps indique une tendance de fond : la capacité d'accéder à un cadre de vie de qualité n'est pas équitablement partagée parmi les individus. Ce constat interroge : comment se créent ces inégalités ? Comment infléchir cette tendance et faire la ville plus juste ?¦Apporter des réponses à cette problématique nécessite d'identifier les facteurs de causalités qui entrent en jeu dans le système de (re)production des inégalités urbaines. Le fonctionnement des marchés foncier et immobilier, la « tyrannie des petites décisions » et les politiques publiques à incidence spatiale sont principalement impliqués. Ces dernières, agissant sur tous les éléments du système, sont placées au coeur de ce travail. On va ainsi s'intéresser précisément à la manière dont les collectivités publiques pilotent la production de la ville contemporaine, en portant l'attention sur la maîtrise publique d'ouvrage (MPO) des grands projets urbains.¦Poser la question de la justice dans la fabrique de la ville implique également de questionner les référentiels normatifs de l'action publique : à quelle conception de la justice celle-ci doit- elle obéir? Quatre perspectives (radicale, substantialiste, procédurale et intégrative) sont caractérisées, chacune se traduisant par des principes d'action différenciés. Une méthodologie hybride - empruntant à la sociologie des organisations et à l'analyse des politiques publiques - vient clore le volet théorique, proposant par un détour métaphorique d'appréhender le projet urbain comme une pièce de théâtre dont le déroulement dépend du jeu d'acteurs.¦Cette méthodologie est utilisée dans le volet empirique de la recherche, qui consiste en une analyse de la MPO d'un projet urbain en cours dans la première couronne de l'agglomération lyonnaise : le Carré de Soie. Trois grands objectifs sont poursuivis : descriptif (reconstruire le scénario), analytique (évaluer la nature de la pièce : conte de fée, tragédie ou match d'improvisation ?) et prescriptif (tirer la morale de l'histoire). La description de la MPO montre le déploiement successif de quatre stratégies de pilotage, dont les implications sur les temporalités, le contenu du projet (programmes, morphologies) et les financements publics vont être déterminantes. Sur la base de l'analyse, plusieurs recommandations peuvent être formulées - importance de l'anticipation et de l'articulation entre planification et stratégie foncière notamment - pour permettre à la sphère publique de dominer le jeu et d'assurer la production de justice par le projet urbain (réalisation puis entretien des équipements et espaces publics, financement de logements de qualité à destination d'un large éventail de populations, etc.). Plus généralement, un décalage problématique peut être souligné entre les territoires stratégiques pour le développement de l'agglomération et les capacités de portage limitées des communes concernées. Ce déficit plaide pour le renforcement des capacités d'investissement de la structure intercommunale.¦La seule logique du marché (foncier, immobilier) mène à la polarisation sociale et à la production d'inégalités urbaines. Faire la ville juste nécessite une forte volonté des collectivités publiques, laquelle doit se traduire aussi bien dans l'ambition affichée - une juste hiérarchisation des priorités dans le développement urbain - que dans son opérationnalisation - une juste maîtrise publique d'ouvrage des projets urbains.¦Inner-city neighborhoods, poor outskirts, and peri-urban spaces with no amenities usually suffer from social and environmental inequalities, such as poverty, unemployment, and exposure to noise and industrial hazards. The observed persistence of these inequalities over time points to an underlying trend - namely, that access to proper living conditions is fundamentally unequal, thus eliciting the question of how such inequalities are effected and how this trend can be reversed so as to build a more equitable city.¦Providing answers to such questions requires that the causal factors at play within the system of (re)production of urban inequalities be identified. Real estate markets, "micromotives and macrobehavior", and public policies that bear on space are mostly involved. The latter are central in that they act on all the elements of the system. This thesis therefore focuses on the way public authorities shape the production of contemporary cities, by studying the public project ownership of major urban projects.¦The study of justice within the urban fabric also implies that the normative frames of reference of public action be questioned: what conception of justice should public action refer to? This thesis examines four perspectives (radical, substantialist, procedural, and integrative) each of which results in different principles of action. This theoretical part is concluded by a hybrid methodology that draws from sociology of organizations and public policy analysis and that suggests that the urban project may be understood as a play, whose outcome hinges on the actors' acting.¦This methodology is applied to the empirical analysis of the public project ownership of an ongoing urban project in the Lyon first-ring suburbs: the Carré de Soie. Three main objectives are pursued: descriptive (reconstructing the scenario), analytical (assessing the nature of the play - fairy tale, tragedy or improvisation match), and prescriptive (drawing the moral of the story). The description of the public project ownership shows the successive deployment of four control strategies, whose implications on deadlines, project content (programs, morphologies), and public funding are significant. Building on the analysis, several recommendations can be made to allow the public sphere to control the process and ensure the urban project produces equity (most notably, anticipation and articulation of planning and real- estate strategy, as well as provision and maintenance of equipment and public spaces, funding of quality housing for a wide range of populations, etc.). More generally, a gap can be highlighted between those territories that are strategic to the development of the agglomeration and the limited resources of the municipalities involved. This deficit calls for strengthening the investment abilities of the intermunicipal structure.¦By itself, the real-estate market logic brings about social polarization and urban inequalities. Building an equitable city requires a strong will on the part of public authorities, a will that must be reflected both in the stated ambition - setting priorities of urban development equitably - and in its implementation managing urban public projects fairly.