997 resultados para Optimal tests
Resumo:
Traditionnellement associée à la reproduction féminine, l'ocytocine (OT), une hormone peptidique synthétisée par les noyaux paraventriculaire et supraoptique de l'hypothalamus et sécrétée par l'hypophyse postérieure (neurohypophyse), a été récemment revue et a été démontrée avoir plusieurs nouveaux rôles dans le système cardio-vasculaire. En effet, notre laboratoire a montré que l’OT peut induire la différenciation des cellules souches embryonnaires (CSE) en cardiomyocytes (CM) fonctionnels. À l’aide du modèle cellulaire embryonnaire carcinomateux de souris P19, il a été démontré que ce processus survenait suite à la libération de la guanosine monophosphate cyclique (GMPc) dépendante du monoxyde d’azote. De même, il est connu que le peptide natriurétique auriculaire (ANP), un peptide produit, stocké et sécrété par les myocytes cardiaques, peut aussi induire la production du GMPc. De nombreuses études ont démontré que le cœur ayant subi un infarctus pouvait être régénéré à partir d’une population isolée de cellules souches et progénitrices transplantées. Une de ces populations de cellules, fréquemment isolées à partir d'organes provenant d'animaux aux stades de développement embryonnaire et adulte, appelée « Side Population » (SP), sont identifiées par cytométrie en flux (FACS) comme une population de cellules non marquées par le colorant fluorescent Hoechst 33342 (Ho). Les cellules SP expriment des protéines de transport spécifiques, de la famille ATP-binding cassette, qui ont pour rôle de transporter activement le colorant fluorescent Ho de leur cytoplasme. La sous-population de cellules SP isolée du cœur affiche un potentiel de différenciation cardiaque amélioré en réponse à un traitement avec l’OT. Récemment, l'hétérogénéité phénotypique et fonctionnelle des CSE a été mise en évidence, et cela a été corrélé avec la présence de sous-populations cellulaires ressemblant beaucoup aux cellules SP issues du cœur. Puisque l’ANP peut induire la production du GMPc et qu’il a été démontré que la différenciation cardiaque était médiée par la production du GMPc, alors nous émettons l'hypothèse selon laquelle l’ANP pourrait induire la différenciation cardiaque. Étant donné que les CSE sont composés d’un mélange de différents types cellulaires alors nous émettons aussi l’hypothèse selon laquelle l’utilisation d’une sous-population de CSE plus homogène renforcerait le potentiel de différenciation de l'ANP. Méthodes : Les SP ont été isolées des cellules P19 par FACS en utilisant la méthode d’exclusion du colorant fluorescent Ho. Puis, leur phénotype a été caractérisé par immunofluorescence (IF) pour les marqueurs de l’état indifférencié, d’auto-renouvellement et de pluripotence octamer-binding transcription factor 4 (OCT4) et stage-specific embryonic antigen-1 (SSEA1). Ensuite, la dose pharmacologique optimale d’ANP a été déterminée via des tests de cytotoxicité sur des cellules P19 (MTT assay). Pour induire la différenciation en cardiomyocytes, des cellules à l’état de sphéroïdes ont été formées à l’aide de la technique du « Hanging-Drop » sous la stimulation de l’ANP pendant 5 jours. Puis, des cryosections ont été faites dans les sphéroïdes afin de mettre en évidence la présence de marqueurs de cellules cardiaques progénitrices tels que GATA4, Nkx2.5 et un marqueur mitochondrial spécifique Tom22. Ensuite, les cellules SP P19 ont été stimulées dans les sphéroïdes cellulaires par le traitement avec de l'ANP (10-7 M) ou de l’OT (10-7 M), de l’antagoniste spécifique du guanylate cyclase particulé (GCp) A71915 (10-6 M), ainsi que la combinaison des inducteurs OT+ANP, OT+A71915, ANP+A71915. Après la mise en culture, la différenciation en cardiomyocytes a été identifié par l’apparition de colonies de cellules battantes caractéristiques des cellules cardiaques, par la détermination du phénotype cellulaire par IF, et enfin par l’extraction d'ARN et de protéines qui ont été utilisés pour le dosage du GMPc par RIA, l’expression des ARNm par RT-PCR et l’expression des protéines par immunobuvardage de type western. Résultats : Les sphéroïdes obtenus à l’aide de la technique du « Hanging-Drop » ont montré une hausse modeste de l’expression des ARNm suivants : OTR, ANP et GATA4 comparativement aux cellules cultivées en monocouches. Les sphéroïdes induits par l’ANP ont présenté une augmentation significative des facteurs de transcription cardiaque GATA4 et Nkx2.5 ainsi qu’un plus grand nombre de mitochondries caractérisé par une plus grande présence de Tom22. De plus, L’ANP a induit l’apparition de colonies de cellules battantes du jour 7 (stade précoce) au jour 14 (stade mature) de façon presque similaire à l’OT. Cependant, la combinaison de l’ANP avec l’OT n’a pas induit de colonies de cellules battantes suggérant un effet opposé à celui de l’OT. Par IF, nous avons quantifié (nombre de cellules positives) et caractérisé, du jour 6 au jour 14 de différenciation, le phénotype cardiaque de nos cellules en utilisant les marqueurs suivants : Troponine T Cardiaque, ANP, Connexines 40 et 43, l’isoforme ventriculaire de la chaîne légère de myosine (MLC-2v), OTR. Les SP différenciées sous la stimulation de l’ANP ont montré une augmentation significative du GMPc intracellulaire comparé aux cellules non différenciées. À notre grande surprise, l’antagoniste A71915 a induit une plus grande apparition de colonies de cellules battantes comparativement à l’OT et l’ANP à un jour précoce de différenciation cardiaque et l’ajout de l’OT ou de l’ANP a potentialisé ses effets, augmentant encore plus la proportion de colonies de cellules battantes. De plus, la taille des colonies de cellules battantes était encore plus importante que sous la simple stimulation de l’OT ou de l’ANP. Les analyses radioimmunologiques dans les cellules SP P19 stimulés avec l’ANP, A71915 et la combinaison des deux pendant 15min, 30min et 60min a montré que l’ANP stimule significativement la production du GMPc, cependant A71915 n’abolit pas les effets de l’ANP et celui-ci au contraire stimule la production du GMPc via des effets agonistes partiels. Conclusion : Nos résultats démontrent d’une part que l’ANP induit la différenciation des cellules SP P19 en CM fonctionnels. D’autre part, il semblerait que la voie de signalisation NPRA-B/GCp/GMPc soit impliquée dans le mécanisme de différenciation cardiaque puisque l’abolition du GMPc médiée par le GCp potentialise la différenciation cardiaque et il semblerait que cette voie de signalisation soit additive de la voie de signalisation induite par l’OT, NO/GCs/GMPc, puisque l’ajout de l’OT à l’antagoniste A71915 stimule plus fortement la différenciation cardiaque que l’OT ou l’A71915 seuls. Cela suggère que l’effet thérapeutique des peptides natriurétiques observé dans la défaillance cardiaque ainsi que les propriétés vasodilatatrices de certains antagonistes des récepteurs peptidiques natriurétiques inclus la stimulation de la différenciation des cellules souches en cardiomyocytes. Cela laisse donc à penser que les peptides natriurétiques ou les antagonistes des récepteurs peptidiques natriurétiques pourraient être une alternative très intéressante dans la thérapie cellulaire visant à induire la régénération cardiovasculaire.
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
L’immunosuppression optimale après greffe d’organe solide est une balance délicate et propre à chaque individu entre le risque de rejet et les risques liés à une surexposition au traitement immunosuppresseur. L’évaluation de la fonction résiduelle des lymphocytes T après stimulation par un mitogène (pharmacodynamie effective) devrait permettre de mesurer l’effet direct des médicaments immunosuppresseurs sur leur cible. Nous avons étudié différents paramètres de pharmacodynamie effective chez 34 receveurs pédiatriques de greffe d’organes solides traités par tacrolimus et mycophénolate. Les tests proposés dans ce travail sont adaptés au milieu pédiatrique et à une réalisation en temps réel. La quantification du CD25 parmi les CD4 activés par l’OKT3 permet de distinguer deux groupes de patients selon leur degré d’immunosuppression. L’âge médian est plus bas et la concentration plasmatique médiane en MPA plus élevée dans le groupe de patients plus fortement immunosupprimés. L’étude des paramètres immunologiques pouvant influencer la réponse (sécrétion des interleukines, proportion des sous-populations lymphocytaires CD4, CD8, T naïfs et Trég) ainsi que l’étude du pouvoir de restauration de la fonction lymphocytaire par l’Il-2, la guanosine ou la xanthosine, ne permettent pas de mieux comprendre les variabilités interindividuelles observées. Ces résultats devront être confirmés sur une cohorte plus grande de patients afin de juger de leur intérêt en pratique clinique.
Resumo:
L’objectif de ce mémoire vise à exposer les méthodes d’évaluation propres aux tests génétiques. Le mémoire se penche également sur le recours grandissant, par des instances locales, aux services de génétique dispensés par des laboratoires internationaux. Le premier article propose une recension des modèles d'évaluation propres aux tests génétiques et une analyse de leur situation sur le parcours translationnel. L'article expose les origines de ces modèles, leurs attributs et particularités distinctives et spécifie le public cible auquel ils sont destinés. L'analyse comparative des modèles d'évaluation permet de mettre en relief leurs apports et limites respectives. Les critères évaluatifs de chaque modèles sont situés le long du parcours translationnel permettant de mettre en évidence les types d'évaluations nécessaires à chacune des phases de progression des tests génétiques le long du continuum menant à leur utilisation. Le second article adopte une tangente pragmatique et se penche sur l'utilisation effective des tests génétiques dans un centre hospitalier universitaire pédiatrique. Plus spécifiquement, l'article dresse un portrait exhaustif de l'ensemble des tests génétiques moléculaires réalisés à l’extérieur du Québec par le CHU Sainte-Justine en 2009 étant donné l’augmentation des tests disponibles internationalement comparativement à ceux offerts à l’interne. Vu la globalisation des envois d'échantillons vers des laboratoires localisés à l'étranger, l'objectif est de décrire l’état de la situation actuelle et d’identifier des cibles potentielles pour l’amélioration des processus et le développement de tests localement. L'évaluation des tests génétiques est abordée sous une double perspective: les considérations normatives liées à l'évaluation des tests génétiques tel que préconisé par les différents modèles d'évaluation ainsi que d'un point de vue pratique dans le contexte particulier d'un centre hospitalier universitaire.
Resumo:
Travail dirigé
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.
Resumo:
La balance énergétique (dépense énergétique et ingestion calorique) est au centre du contrôle de la masse corporelle. L’activité physique peut par ailleurs réduire l’appétit et l’ingestion calorique, un phénomène qu’on appelle aussi l’effet anorexigène de l’activité physique. Cependant, l’hormone orexigénique, liée à une diminution de l’appétit, diminue pendant l’exercice pour remonter rapidement après l’effort. Le but de ce mémoire était de déterminer si l’ingestion calorique est réduite quand l’exercice précède immédiatement le repas comparativement à une condition où il y a une pause entre l’exercice et le repas. Pour ce faire, douze garçons non obèses (15-20 ans) ont pris part à l’étude. Chaque participant était évalué individuellement pour les deux tâches suivantes, et ce, dans un ordre aléatoire : 1) Ex = 30 minutes d’exercice (70% VO2max) suivi immédiatement par un buffet à volonté à midi; 2) Expause = 30 minutes d’exercice (70% VO2max) suivi d’une pause de 135 minutes et d’un buffet à volonté à midi. Les visites étaient précédées par un déjeuner standard et complétées avec une collation à volonté durant l’après-midi et un souper type buffet à volonté pour souper. Alors que les résultats ont révélé que la faim était similaire en tout temps, l’ingestion calorique au diner était plus basse pour la condition Ex que pour la condition Expause (5 072 vs 5 718 kJ; p < 0,05). Aucune différence significative n’a été notée pour la collation de l’après-midi et le souper. Chose intéressante, l’ingestion calorique des lipides était plus basse au diner avec une ingestion de 1 604 kJ pour la condition Ex versus 2 085 kJ pour la condition Expause (p < 0,05). Cette étude est la première à investiguer l’effet du positionnement optimal de l’activité physique pour réduire l’ingestion calorique et elle révèle qu’être actif physiquement juste avant le repas joue un rôle sur la diminution de l’ingestion calorique indépendamment des sensations d’appétit. L’absence d’une compensation durant le reste de la journée suggère de plus qu’une balance énergétique négative, incluant une réduction de la consommation de lipides, peut être plus facilement atteinte en positionnant l’activité physique juste avant un repas.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
L’insuffisance rénale chronique (IRC) est un problème majeur fréquemment rencontré chez les greffés cardiaques. Les inhibiteurs de la calcineurine, pierre angulaire de l’immunosuppression en transplantation d’organes solides, sont considérés comme une des principales causes de dysfonction rénale postgreffe. Plusieurs autres éléments tels que les caractéristiques démographiques, cliniques et génétiques du receveur contribuent également au phénomène, mais il demeure plutôt difficile de déterminer quels sont les patients les plus à risque de développer une IRC après la transplantation. Ainsi, la découverte de nouveaux marqueurs génétiques de dysfonction rénale pourrait un jour mener à l’individualisation de la thérapie immunosuppressive selon le profil génétique de chaque patient. Or, on ne connaît pas les opinions des greffés à l’égard des tests pharmacogénomiques et l’on ne sait pas si celles-ci diffèrent des opinions exprimées par les individus en bonne santé. Cette thèse de doctorat a donc pour objectifs : 1- De décrire l’évolution de la fonction rénale à très long terme après la transplantation et d’identifier les marqueurs démographiques et phénotypiques associés à l’IRC postgreffe cardiaque; 2- D’identifier les marqueurs génétiques associés à la néphrotoxicité induite par les inhibiteurs de la calcineurine; 3- D’évaluer et de comparer les attitudes des patients et des individus en bonne santé par rapport à l’intégration clinique potentielle des marqueurs pharmacogénomiques. Trois projets ont été réalisés pour répondre à ces questions. Le premier repose sur une analyse rétrospective de l’évolution de la fonction rénale chez les patients greffés au sein de notre établissement entre 1983 et 2008. Nous y avons découvert que le déclin de la fonction rénale se poursuit jusqu’à 20 ans après la transplantation cardiaque et que les facteurs de risque d’IRC incluent entre autres l’âge avancé, le sexe féminin, la dysfonction rénale prégreffe, l’hypertension, l’hyperglycémie et l’utilisation de la prednisone. Le deuxième projet est une étude pharmacogénomique s’intéressant aux déterminants génétiques de la néphrotoxicité induite par les inhibiteurs de la calcineurine. Elle nous a permis d’illustrer pour la première fois qu’un polymorphisme génétique lié à PRKCB (gène codant pour la protéine kinase C-β) est associé avec la fonction rénale des patients greffés cardiaques, alors que cela n’est probablement pas le cas pour les polymorphismes de TGFB1 (gène codant pour le transforming growth factor-β1). La troisième section de cette thèse rapporte les résultats d’un questionnaire dont le but était de comparer les attitudes envers les tests pharmacogénomiques parmi un groupe de personnes en bonne santé, de patients greffés cardiaques et de patients souffrant d’insuffisance cardiaque. Cette étude a démontré que, bien que l’enthousiasme pour la pharmacogénomique soit partagé par tous ces individus, les craintes liées à la confidentialité et aux répercussions potentielles sur l’emploi et les assurances sont plus prononcées chez les personnes en bonne santé. En résumé, les travaux issus de cette thèse ont révélé que l’identification précoce des patients greffés cardiaques les plus susceptibles de présenter une détérioration de la fonction rénale ainsi que l’adoption d’une approche thérapeutique individualisée reposant notamment sur les applications cliniques de la pharmacogénomique pourraient éventuellement permettre de freiner cette complication postgreffe.
Resumo:
Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.
Resumo:
Introduction et objectifs : Alors que l'effet moteur de la lévodopa (L-dopa) dans la maladie de Parkinson (MP) est clair et établi, son effet sur la cognition demeure incertain. Les troubles cognitifs ont un impact important sur la qualité de vie et les études évaluant l'effet cognitif de ce médicament donnent des résultats encore divergents. L’objectif primaire de cette étude pilote est d’observer l’impact des doses cliniques de lévodopa sur la cognition. Un second objectif sera d'établir une courbe dose-réponse pour observer les différences potentielles. Méthodes : Cinq patients avec MP ont été évalués à l’aide de 2 tests cognitifs (CPT-II et Stroop) et 2 tests moteurs (Finger Tapping et UPDRS-III) en OFF (sevrage minimal de 12 heures) et en ON avec des doses croissantes de lévodopa (commençant à 50mg avec une augmentation de dose de 50mg par visite) jusqu’à l'observation d'une performance cognitive optimale ou d'effets secondaires. Une administration répétée des tests cognitifs a été faite à la première visite pour limiter l’effet d’apprentissage. Résultats : Le temps de réaction (RT) mesuré en millisecondes au CPT-II a augmenté (médiane 3.03%) après la prise de médicament alors que les erreurs ont légèrement diminué (médiane -9.92%). Au Stroop, l’effet d’interférence évalué selon les changements au temps d’inhibition mesuré en secondes était légèrement moindre sans changement dans les erreurs. Avec les doses prescrites, le RT a augmenté de 3,50% et le nombre d’erreurs est resté stable alors que les doses inférieures ont eu une moindre augmentation du RT tout en diminuant les erreurs. Dans le Stroop, les doses faibles ont amélioré le temps de près de 19% alors que les doses prescrites ont quant à elles diminué les erreurs. Malgré une certaine variabilité, la courbe dose-réponse indique que les erreurs diminuaient aux doses faibles et fortes dans le CPT-II alors que le RT augmentait généralement, ce qui pourrait indiquer un style de performance plus prudent. L’effet de la lévodopa sur l’interférence dans le Stroop variait légèrement sans tendances fixes mis à part le bénéfice observé par les doses faibles. Une importante variabilité a été observée dans les évaluations motrices entre les sujets ainsi qu'au sein du même sujet. Conclusion : Ces résultats indiquent qu’en général, le médicament ne semble pas avoir d’effet néfaste important sur l’attention et les fonctions exécutives évaluées auprès de ce groupe de patients parkinsoniens. L'effet cognitif des doses plus faibles semble leur être bénéfique et meilleur que les doses cliniquement prescrites. La relation dose-réponse démontre un effet cognitif variable de la lévodopa entre les doses, n'indiquant toutefois pas de tendances claires.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
La campylobactériose est une zoonose causée par Campylobacter jejuni, une bactérie commensale du poulet, considérée comme la principale source de contamination humaine. C. jejuni est rarement retrouvé dans le tube digestif des poulets avant deux ou trois semaines d'âge. Ce qui pourrait s'expliquer par la transmission d'une immunité maternelle (anticorps IgY) transmise aux poussins via le jaune d'œuf. À la Chaire de recherche en Salubrité des Viandes (CRSV), la caractérisation d'anticorps IgY extraits de jaunes d'œufs frais a montré des niveaux de production d’anticorps différents selon le mode d’immunisation et suggère, in vitro, des effets sur ce pathogène. Ce qui laisse penser qu'en tant qu'additif alimentaire, une poudre de jaunes d'œuf potentialisée permettrait de lutter contre C. jejuni chez le poulet à griller. Dans ce travail, le processus de fabrication de l'additif (déshydratation par « Spray dry » puis encapsulation) a été évalué et les différents modes d'immunisation des poules pondeuses ont également été comparés. Les anticorps ont été extraits des différentes poudres de jaunes d'œuf ou du produit final encapsulé, et caractérisés in vitro (dosage / ELISA, test de mobilité, bactéricidie, western blot). Puis, une évaluation in vivo de la capacité de ces poudres encapsulées, incorporée à 5 % dans la moulée, afin de réduire ou de bloquer la colonisation intestinale des oiseaux par C. jejuni a été testée. In vitro, les résultats ont montré des concentrations d'anticorps et d'efficacité variables selon le type de vaccination. Dans cette étude, on a observé que le « Spray dry » a concentré les anticorps dans les poudres et que ces anticorps sont restés fonctionnels contre C. jejuni. On a également observé que l'encapsulation n’entraîne pas une perte quantitative des anticorps contenus dans les poudres. Malgré les résultats in vitro encourageants, les résultats in vivo ne révèlent aucune inhibition ou réduction de la colonisation des oiseaux par C. jejuni. L’absence d’efficacité la poudre de jaunes d’œuf encapsulée dans notre étude n’est pas due à une perte quantitative et/ou qualitative des anticorps comme soutenu dans les expériences in vitro. Ce qui démontre que les recherches doivent être poursuivies afin de déterminer les conditions optimales de l'utilisation de la poudre de jaune d'œuf in vivo, en tant qu'additif alimentaire chez les poulets