423 resultados para Efficacité asymptotique
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie
Resumo:
L’incidence du diabète chez les premières nations du Canada est plus de trois fois celle du reste du pays, dû, en partie, aux traitements culturellement inappropriés. Notre projet vise à traiter le diabète chez ces populations à partir de leur pharmacopée de médicine traditionnelle afin d’améliorer l’acceptation des traitements. En utilisant une approche ethnobotanique, notre équipe a identifié 17 plantes médicinales utilisées pour traiter des symptômes du diabète par les Cris d'Eeyou Istchee (Baie James, Québec). Parmi eux, l'extrait éthanolique de baies de Vaccinium vitis-idaea a montré un effet stimulateur sur le transport du glucose dans les cellules musculaires squelettiques et les adipocytes en culture. Le but de cette thèse était d’élucider les mécanismes par lesquels cet extrait exerce ses effets anti-hyperglycémiants, d’identifier ses principes actifs et de confirmer in vivo, son efficacité. Les résultats démontrent que V.vitis a augmenté le transport du glucose dans les cellules musculaires en cultures, C2C12 et L6 et a stimulé la translocation des transporteurs GLUT4 dans les cellules L6. L'extrait a également inhibé la respiration dans les mitochondries isolées du foie du rat. Cet effet est semblable à celui de la metformine et en lien avec la production du stress métabolique et l'activation de l'AMPK. De plus, la voie de signalisation de l’insuline ne semble pas être impliquée dans le mécanisme d’action de V. vitis. Le fractionnement guidé par la stimulation du transport du glucose a mené à l'isolation des principes actifs; la quercétine, la quercétine-3-O-galactoside, et la quercétine-3-O-glucoside. Comparable à l'extrait brut, ses composés ont stimulé la voie AMPK. Cependant, la quércetine était la seule à inhiber la respiration mitochondriale. Pour valider l'effet de V.vitis in vivo, l'extrait (1% dans l'eau de boisson) a été administré aux souris KKAy pendant 10 jours. La glycémie et le poids corporel ont été significativement réduits par V.vitis. Ces effets ont été associés à une diminution de la prise alimentaire, ce qui suggère que V.vitis diminue l'appétit. L'étude pair-fed a confirmé que les effets de V.vitis sont, majoritairement, dû à la réduction de l’appétit. De plus, V.vitis a augmenté la teneur en GLUT4 dans le muscle squelettique, a stimulé la iv phosphorylation de l'ACC et a augmenté les niveaux de PPAR-α dans le foie des souris KKAy. Ces effets se voient être additifs à l’effet anorexigène de V. vitis. Au cours du fractionnement bioguidé de l’extrait, l’ester méthylique de l'acide caféique (CAME), un produit formé lors de la procédure du fractionnement, a démontré un effet stimulateur puissant sur le transport du glucose dans les celules C2C12 et donc un potentiel anti-diabétique. Pour identifier d'autres acides caféique active (AC) et pour élucider leurs relations structure-activité et structure-toxicité, vingt dérivés AC ont été testés. Outre CAME, quatre composés ont stimulé le transport du glucose et ont activé l'AMPK suite au stress métabolique résultant d'un découplage de la phosphorylation oxydative mitochondriale. L’activité nécessite une fonction d’AC intacte dépourvu de groupements fortement ionisés et ceci était bien corrélée avec la lipophilicite et la toxicité. Les résultats de cette thèse soutiennent le potentiel thérapeutique de V. vitis, ses composés actifs ainsi que de la famille de l’AC et pour la prévention et le traitement du diabète.
Resumo:
Un intérêt grandissant pour le rôle du citoyen dans la prise de décision concernant la vie publique se développe depuis les dernières années. Le développement et la mise en oeuvre de divers mécanismes de participation citoyenne, comme les conférences citoyennes, témoignent de cet intérêt. Nombre de ces expériences ont fait l'objet d'une évaluation, mais essentiellement au niveau de l'efficacité ou du succès de l'exercice. Peut-on les évaluer sur le plan de l’éthique? Quels sont les défis éthiques posés par les mécanismes de participation citoyenne? Ce mémoire évalue une expérience de conférence citoyenne portant sur les avancées de la biologie humaine à l’ère de la génomique mise sur pied par le Groupe de recherche en bioéthique (GREB) de l’Université de Montréal en 2005. À l’aide du concept de l’éthique de la discussion, telle que proposée par quatre auteurs québécois, une analyse qualitative est effectuée sur six documents rédigés dans le cadre de la conférence. Deux catégories de résultats sont discutées. D’abord, les divers éléments relatifs à la conférence citoyenne qui ont soulevé notre attention. Ensuite, les préoccupations des participants en lien avec la science, la société et la participation. Une meilleure compréhension des aspects éthiques auxquels on devrait accorder une attention particulière contribuera à l’amélioration du mécanisme de conférence citoyenne et à son utilisation à long terme.
Resumo:
Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.
Resumo:
L’objectif de cet article est de montrer les apports d’une co-analyse éthique et économique pour traiter des problématiques liées à la santé. Une co-analyse éthique et économique apporte un éclairage supplémentaire pouvant même conduire à modifier les conclusions de l’analyse économique. A cet égard, le thème des transplantations d’organes est emblématique.
Resumo:
Réovirus, connu sous le nom REOLYSIN®, est présentement à l'étude à titre d'agent oncolytique. Or, la spécificité du virus pour les cellules cancéreuses pourrait être optimisée par une modification au niveau de la protéine d'attachement σ1. La présente étude vise à démontrer qu'une telle amélioration est possible par l'utilisation de la méthode nouvellement décrite de génétique inverse. Par cette technique, il est possible d'ajouter un polypeptide d'une longueur de quarante acides aminés à l'extrémité C-terminale de σ1. Il est aussi possible d'engendrer des virus mutés en leur site d'activité mucinolytique. Les virus nouvellement créés démontrent une efficacité de réplication diminuée, mais demeurent infectieux. Contrairement aux méthodes traditionnellement utilisées avec réovirus, la méthode de génétique inverse permet de conserver les mutations engendrées, par substitution ou addition, au cours des cycles de réplication. Une telle étude démontre qu'il serait possible de modifier le tropisme de réovirus.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
CD20 est une phosphoprotéine transmembranaire exprimée spécifiquement à la surface des lymphocytes B. Malgré les nombreuses études qui ont montré son implication dans le flux calcique, son rôle physiologique est assez mal connu. Cependant, des études récentes ont démontré que CD20 peut jouer un rôle important dans la mort cellulaire. D’ailleurs, le rituximab, un anticorps monoclonal chimérique dirigé contre CD20 humain, a montré son efficacité dans le traitement de nombreuses maladies auto-immunes. Cet anticorps est capable d’induire une profonde déplétion des lymphocytes B, qui va également interférer avec la coopération T et la sécrétion de cytokines. En plus, l’engagement du CD20 à la surface des cellules induit la mort cellulaire, alors que la partie cytoplasmique de cette molécule ne possède pas un motif de mort. Donc, il est possible que cette réponse soit médiée par des molécules qui semblent être associées au CD20 comme CD40. En effet, CD40, une glycoprotéine transmembranaire de type I, est un composant majeur du système immunitaire, dont l’engagement pourrait moduler la fonction cellulaire et même conduire à la mort rapide des cellules B. Le travail présenté dans ce mémoire porte sur l’étude de la mort cellulaire induite par un anti-CD20, le rituximab, ainsi que l’étude du rôle de l’association CD20/CD40 dans la mort cellulaire médiée par cet anticorps. Nos résultats montrent que la mort cellulaire induite par le rituximab varie en fonction du type cellulaire et du niveau d’expression du CD20, et que la présence du CD40 à la surface des cellules augmente l’activité de la mort cellulaire induite par le rituximab. En plus, CD20 et CD40 sont associés à la surface cellulaire, et la partie cytoplasmique n’est pas impliquée dans cette association mais semble être importante dans la mort cellulaire induite via CD20.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.