499 resultados para Énigme du taux sans risque
Resumo:
La présente thèse, organisée en trois volets, poursuivait trois objectifs : i) Estimer les coûts médicaux directs du traitement du DT2 dans 4 pays d’Afrique subsaharienne et dans le cas du Mali, rapprocher ces coûts médicaux directs estimés aux dépenses effectives des patients diabétiques ; ii) Examiner le coût-efficacité des interventions de prévention basées sur la modification du mode de vie chez les sujets à haut risque du DT2; iii) Cerner la perception et les attitudes des acteurs de la santé sur les outils de plaidoyer développés dans le cadre du projet DFN et leur potentiel d’impact sur les décideurs. Dans le premier volet, il s’est agi d’estimer les coûts du DT2 et de ses complications au moyen d’un calculateur et de le mettre à l’épreuve au Bénin, au Burkina- Faso, en Guinée et au Mali. Les composantes de soins pour le DT2 et ses complications avaient été définies au préalable par une équipe de spécialistes, sur la base de leur expérience clinique et des lignes directrices existantes. Les prix ont été relevés dans deux structures hospitalières du secteur public et deux du privé. Les coûts ont été estimés sur une base annuelle pour le DT2 avec ou sans complications chroniques puis par épisode pour les complications aiguës. Dans le cas du Mali, ces coûts ont été rapprochés des dépenses de patients diabétiques d’après une précédente enquête transversale dans ce pays. Cette enquête portait sur 500 sujets diabétiques sélectionnés au hasard dans les registres. Les dépenses pour les soins des trois derniers mois avaient été relevées. Les déterminants des dépenses ont été explorés. Il ressort des différences de coûts dans le même secteur puis entre le secteur privé et le secteur public. Le coût minimum du traitement du DT2 sans complications dans le secteur public représentait entre 21% et 34% de PIB par habitant, puis entre 26% - 47% en présence de la rétinopathie et au-delà de 70% pour la néphropathie, la complication chronique la plus coûteuse. Les dépenses des sujets diabétiques enquêtés au Mali, étaient en deçà des coûts minima estimatifs des différentes complications excepté la rétinopathie et le DT2 sans complication. Les facteurs comme l’insulinothérapie, le nombre de complications et la résidence dans la capitale étaient significativement associés aux dépenses plus élevées des patients. Dans le second volet, la revue systématique a consisté à recenser les études d’évaluation économique des interventions de prévention du DT2 dans des groupes à haut risque par l’alimentation et/ou l’activité physique. Les interventions de contrôle de l’obésité comme facteur de risque majeur de DT2 ont également été considérées. Les études ont été sélectionnées dans les bases de données scientifiques en utilisant les mots clés et des critères prédéfinis. Les études originales publiées entre janvier 2009 et décembre 2014 et conduites en français, anglais ou espagnol étaient potentiellement éligibles. La liste de contrôle de « British Medical Journal » a servi à évaluer la qualité des études. Des 21 études retenues, 15 rapportaient que les interventions étaient coût-efficaces suivant les limites d’acceptabilité considérées. Six études étaient non concluantes, dont quatre destinées à la prévention du DT2 et deux, au contrôle de l’obésité. Dans le troisième volet, les perceptions d’utilisateurs potentiels de ce calculateur et d’un autre outil de plaidoyer, à savoir, l’argumentaire narratif expliquant la nécessité de se pencher sur la lutte contre le DT2 en Afrique, ont été évaluées dans une étude qualitative exploratoire. Les données ont été collectées au cours d’entretiens individuels avec 16 acteurs de la santé de quatre pays d’Afrique subsaharienne et un groupe de discussion avec 10 étudiants de master de nutrition à l’issue d’un atelier de formation sur le plaidoyer faisant appel à ces outils, au Bénin. Les entretiens ont été enregistrés, transcrits et codés à l’aide du logiciel QDA Miner. Les participants ont souligné la pertinence des outils pour le plaidoyer et la convivialité du calculateur de coûts. Il demeure cependant que le contexte politique marqué par la compétition des priorités, l’absence de cohésion entre les décideurs et un défaut de données notamment sur le coût-efficacité des interventions sont des freins à la priorisation du DT2 dans les politiques de santé en Afrique subsaharienne que les répondants ont relevés. L’étude confirme que le traitement du DT2 est financièrement inabordable pour un grand nombre de patients. Elle souligne que les dépenses des patients sont en deçà des coûts estimés pour un traitement approprié avec quelques exceptions. La prévention du DT2 basée le mode de vie est coût-efficace mais devrait être étudiée en Afrique. On peut espérer que la pertinence des outils de ce travail telle que relevée par les acteurs de santé se traduise par leur utilisation. Ceci pour susciter des interventions de prévention afin d’infléchir l’évolution du DT2 et son impact économique en Afrique subsaharienne.
Resumo:
Full Text / Article complet
Resumo:
Full Text / Article
Resumo:
Depuis quelque temps déjà, le bruit court que nous serions entrés dans « l'ère du virtuel », sans que l'on sache très bien ce qu'une telle expression signifie - et qui, d'ailleurs, cache une grande confusion avec l'avènement des nouvelles technologies numériques. Si, incontestablement, l'outil numérique aura marqué le tournant du XXIe siècle, la révolution souvent promise se traduit par davantage de permanences que de ruptures : c'est ainsi que, dans le champ de la photographie, on n'en finit plus d'attendre la disparition définitive de l'argentique, dont la mort est sans cesse reprogrammée. [...]
Resumo:
Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.
Resumo:
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
This paper develops and estimates a game-theoretical model of inflation targeting where the central banker's preferences are asymmetric around the targeted rate. In particular, positive deviations from the target can be weighted more, or less, severely than negative ones in the central banker's loss function. It is shown that some of the previous results derived under the assumption of symmetry are not robust to the generalization of preferences. Estimates of the central banker's preference parameters for Canada, Sweden, and the United Kingdom are statistically different from the ones implied by the commonly used quadratic loss function. Econometric results are robust to different forecasting models for the rate of unemployment but not to the use of measures of inflation broader than the one targeted.
Resumo:
This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.
Resumo:
L’évaluation des risques est une étape incontournable pour l’approbation d’un protocole de recherche impliquant des êtres humains. Toutefois, cette évaluation est très difficile et beaucoup de spécialistes croient que les sujets sont insuffisamment protégés contre les expériences éthiquement inacceptables. Il est possible que les difficultés rencontrées lors de cette évaluation proviennent d’une mauvaise définition du concept de « risque », cette définition ignorant certaines caractéristiques fondamentales du risque qui remettent en question sa nature quantifiable et prévisible. Dans cet article, nous allons examiner cette hypothèse à travers trois éléments-clés de l’évaluation éthique des projets de recherches : 1) la quantification du risque, 2) l’anticipation du risque, et 3) l’établissement d’un niveau de risque à partir duquel une expérience devient éthiquement inacceptable.
Resumo:
Les molécules classiques du CMH de classe II présentent des peptides antigéniques aux lymphocytes T CD4+. Cette présentation est régulée par deux molécules non classiques : HLA-DM catalyse la relâche de CLIP et le chargement de peptides et HLA-DO module l’activité de DM. Une expression insuffisante en cellules d’insectes empêche les expériences de cristallisation de DO, probablement en raison de sa conformation, rendant DO instable et inapte à sortir du réticulum endoplasmique (RE). DM corrige la conformation de DO et permet sa sortie du RE. Aussi, par ses ponts disulfures uniques, DM adopte une conformation stable et peut sortir du RE sans lier d’autre molécule. Nous avons tenté de corriger la conformation de DO en introduisant des cystéines pour établir des ponts homologues à ceux de DM. La conformation de DO ne fut pas corrigée. Par ailleurs, nous avons augmenté l’expression de DO en introduisant une séquence partielle de Kozak. Nous avons aussi étudié l’effet de DM sur l’expression de DO. DM a favorisé l’expression de DO, probablement en diminuant sa dégradation. Chaque chaîne du dimère DMαβ est impliquée dans l’oxydation de sa chaîne partenaire. La conformation non-optimale de DO pourrait traduire une incapacité des chaînes α ou β à favoriser l’oxydation de sa partenaire; DM corrigerait ce problème. Notre analyse d’immunobuvardage de type Western a toutefois démontré que DM ne modifie pas l’état d’oxydation de DOα et DOβ. Finalement, nous avons étudié l’interaction DO-DM. L’acide aminé DOαE41 est impliqué dans cette liaison. Certains des acides aminés entre α80 et α84 pourraient être impliqués. Nous avons muté des acides aminés de cette région de DOα. Les résidus testés ne semblent pas impliqués dans la liaison DO-DM. L’obtention de la structure tridimensionnelle de DO et la caractérisation de son état oxydatif et de sa liaison à DM permettront de mieux comprendre son rôle.
Resumo:
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.
Resumo:
Introduction: L'homéostasie du cholestérol est indispensable à la synthèse de la testostérone dans le tissu interstitiel et la production de gamètes mâles fertiles dans les tubules séminifères. Les facteurs enzymatiques contribuent au maintien de cet équilibre intracellulaire du cholestérol. L'absence d'un ou de plusieurs enzymes telles que la HMG-CoA réductase, la HSL et l'ACAT-1 a été associée à l'infertilité masculine. Toutefois, les facteurs enzymatiques qui contribuent au maintien de l'équilibre intra-tissulaire du cholestérol n'ont pas été étudiés. Cette étude a pour but de tester l'hypothèse que le maintien des taux de cholestérol compatibles avec la spermatogenèse nécessite une coordination de la fonction intracellulaire des enzymes HMG-CoA réductase, ACAT1 et ACAT2 et la HSL. Méthodes: Nous avons analysé l'expression de l’ARNm et de la protéine de ces enzymes dans les fractions enrichies en tubules séminifères (STf) de vison durant le développement postnatal et le cycle reproductif annuel et dans les fractions enrichies en tissu interstitiel (ITf) et de STf durant le développement postnatal chez la souris. Nous avons développé deux nouvelles techniques pour la mesure de l'activité enzymatique de la HMG-CoA réductase et de celle de l'ACAT1 et ACAT2. En outre, l'immunohistochimie a été utilisée pour localiser les enzymes dans le testicule. Enfin, les souris génétiquement déficientes en HSL, en SR-BI et en CD36 ont été utilisées pour élucider la contribution de la HMG-CoA réductase, l'ACAT1 et l'ACAT2 et la HSL à l'homéostasie du cholestérol. Résultats: 1) HMG-CoA réductase: (Vison) La variation du taux d’expression de l’ARNm de la HMG-CoA réductase était corrélée à celle de l'isoforme de 90 kDa de la protéine HMG-CoA réductase durant le développement postnatal et chez l'adulte durant le cycle reproductif saisonnier. L'activité enzymatique de la HMG-CoA réductase augmentait de façon concomitante avec le taux protéinique pour atteindre son niveau le plus élevé à 240 jours (3.6411e-7 mol/min/μg de protéines) au cours du développement et en Février (1.2132e-6 mol/min/μg de protéines) durant le cycle reproductif chez l’adulte. (Souris), Les niveaux d'expression de l'ARNm et l'activité enzymatique de la HMG-CoA réductase étaient maximales à 42 jours. A l'opposé, le taux protéinique diminuait au cours du développement. 2) HSL: (Vison), l'expression de la protéine de 90 kDa de la HSL était élevée à 180- et 240 jours après la naissance, ainsi qu'en Janvier durant le cycle saisonnier chez l'adulte. L'activité enzymatique de la HSL augmentait durant le développement pour atteindre un pic à 270 jours (36,45 nM/min/μg). Chez l'adulte, l'activité enzymatique de la HSL était maximale en Février. (Souris) Le niveau d’expression de l'ARNm de la HSL augmentait significativement à 21-, 28- et 35 jours après la naissance concomitamment avec le taux d'expression protéinique. L'activité enzymatique de la HSL était maximale à 42 jours suivie d'une baisse significative chez l'adulte. 3) ACAT-1 et ACAT-2: Le présent rapport est le premier à identifier l’expression de l'ACAT-1 et de l'ACAT-2 dans les STf de visons et de souris. (Vison) L'activité enzymatique de l'ACAT-2 était maximale à la complétion du développement à 270 jour (1190.00 CPMB/200 μg de protéines) et en janvier (2643 CPMB/200 μg de protéines) chez l'adulte. En revanche, l'activité enzymatique de l'ACAT-1 piquait à 90 jours et en août respectivement durant le développement et chez l'adulte. (Souris) Les niveaux d'expression de l'ARNm et la protéine de l'ACAT-1 diminuait au cours du développement. Le taux de l'ARNm de l'ACAT-2, à l’opposé du taux protéinique, augmentait au cours du développement. L'activité enzymatique de l'ACAT-1 diminuait au cours du développement tandis que celle de l'ACAT-2 augmentait pour atteindre son niveau maximal à 42 jours. 4) Souris HSL-/ -: Le taux d’expression de l'ARNm et l'activité enzymatique de la HMG-CoA réductase diminuaient significativement dans les STf de souris HSL-/- comparés aux souris HSL+/+. Par contre, les taux de l'ARNm et les niveaux des activités enzymatiques de l'ACAT-1 et de l'ACAT-2 étaient significativement plus élevés dans les STf de souris HSL-/- comparés aux souris HSL+/+ 5) Souris SR-BI-/-: L'expression de l'ARNm et l'activité enzymatique de la HMG-CoA réductase et de l'ACAT-1 étaient plus basses dans les STf de souris SR-BI-/- comparées aux souris SR-BI+/+. A l'opposé, le taux d'expression de l'ARNm et l'activité enzymatique de la HSL étaient augmentées chez les souris SR-BI-/- comparées aux souris SR-BI+/+. 6) Souris CD36-/-: L'expression de l'ARNm et l'activité enzymatique de la HMG-CoA réductase et de l'ACAT-2 étaient significativement plus faibles tandis que celles de la HSL et de l'ACAT-1 étaient inchangées dans les STf de souris CD36-/- comparées aux souris CD36+/+. Conclusion: Nos résultats suggèrent que: 1) L'activité enzymatique de la HMG-CoA réductase et de la HSL sont associées à l'activité spermatogénétique et que ces activités ne seraient pas régulées au niveau transcriptionnel. 2) L'ACAT-1 et de l'ACAT-2 sont exprimées dans des cellules différentes au sein des tubules séminifères, suggérant des fonctions distinctes pour ces deux isoformes: l'estérification du cholestérol libre dans les cellules germinales pour l'ACAT-1 et l'efflux du cholestérol en excès dans les cellules de Sertoli au cours de la spermatogenèse pour l'ACAT-2. 3) La suppression génétique de la HSL diminuait la HMG-CoA réductase et augmentait les deux isoformes de l'ACAT, suggérant que ces enzymes jouent un rôle critique dans le métabolisme du cholestérol intratubulaire. 4) La suppression génétique des transporteurs sélectifs de cholestérol SR-BI et CD36 affecte l'expression (ARNm et protéine) et l'activité des enzymes HMG-CoA réductase, HSL, ACAT-1 et ACAT-2, suggérant l'existence d’un effet compensatoire entre facteurs enzymatiques et non-enzymatiques du métabolisme du cholestérol dans les fractions tubulaires. Ensemble, les résultats de notre étude suggèrent que les enzymes impliquées dans la régulation du cholestérol intratubulaire agissent de concert avec les transporteurs sélectifs de cholestérol dans le but de maintenir l'homéostasie du cholestérol intra-tissulaire du testicule.
Resumo:
Cette recherche-action vise à déterminer par quels moyens les enseignants de français peuvent contribuer à favoriser le transfert de connaissances grammaticales en situation d’écriture chez leurs élèves de niveau secondaire. Nous avons d’abord constaté que, chez les élèves du secondaire en général, les accords sont plus facilement réussis en contexte d’exercice qu’en contexte de production écrite. Sur la base de propositions didactiques pertinentes concernant l’orthographe grammaticale et/ou le transfert de connaissances, propositions fondées notamment sur une approche inductive, centrée sur le questionnement de l’élève et sur l’analyse de phrases, nous avons conçu et élaboré une séquence didactique portant sur l’accord du participe passé employé avec être ou avec un verbe attributif. Dans un deuxième temps, nous l’avons mise à l’essai auprès d’un groupe d’élèves de troisième secondaire, puis nous en avons vérifié les effets à l’aide d’un prétest et d’un posttest composés respectivement d’un questionnaire, d’un exercice et d’une production écrite. Les résultats révélés par l’analyse des données démontrent l’efficacité de la série de cours. En effet, le taux moyen de réussite des accords en contexte d’exercice passe de 53% à 75%, alors que, pour les productions écrites, il est de 48% avant la série de cours contre 82% après. Les questionnaires recueillis nous portent à attribuer en partie cette forte augmentation du taux de réussite des accords en contexte de production écrite au bon déroulement du processus de transfert grâce au travail effectué en cours de séquence sur les connaissances conditionnelles.