995 resultados para Hopf bifurcation without parameter


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le récepteur DcR3 (Decoy receptor 3) est un membre de la famille des récepteurs aux facteurs de nécrose tumorale (TNF). Il est fortement exprimé dans les tissus humains normaux ainsi que les tumeurs malignes. DcR3 est un récepteur pour trois ligands de la famille du TNF tels que FasL, LIGHT et TL1A. Étant une protéine soluble donc dépourvue de la portion transmembranaire et intracytoplasmique, le récepteur DcR3 est incapable d’effectuer une transduction de signal intracellulaire à la suite de son interaction avec ses ligands. De ce fait, DcR3 joue un rôle de compétiteur pour ces derniers, afin d’inhiber la signalisation via leurs récepteurs fonctionnels tels que Fas, HVEM/LTbetaR et DR3. Lors de nos précédentes études, nous avons pu démontrer, que DcR3 pouvaist moduler la fonction des cellules immunitaires, et aussi protéger la viabilité des îlots de Langerhans. À la suite de ces résultats, nous avons généré des souris DcR3 transgéniques (Tg) en utilisant le promoteur du gène β-actine humaine afin d’étudier plus amplement la fonction de ce récepteur. Les souris Tg DcR3 ont finalement développé le syndrome lupus-like (SLE) seulement après l’âge de 6 mois. Ces souris présentent une variété d'auto-anticorps comprenant des anticorps anti-noyaux et anti-ADN. Elles ont également manifesté des lésions rénales, cutanées, hépatiques et hématopoïétiques. Contrairement aux modèles de lupus murin lpr et gld, les souris DcR3 sont plus proche du SLE humain en terme de réponse immunitaire de type Th2 et de production d'anticorps d'anti-Sm. En péus, nous avons constaté que les cellules hématopoïétiques produisant DcR3 sont suffisantes pour causer ces pathologies. DcR3 peut agir en perturbant l’homéostasie des cellules T pour interférer avec la tolérance périphérique, et ainsi induire l'autoimmunité. Chez l'humain, nous avons détecté dans le sérum de patients SLE des niveaux élevés de la protéine DcR3. Chez certains patients, comme chez la souris, ces niveaux sont liés directement aux titres élevés d’IgE. Par conséquent, DcR3 peut représenter un facteur pathogénique important du SLE humain. L’étude des souris Tg DcR3, nous a permis aussi d’élucider le mécanisme de protection des îlots de Langerhans. Le blocage de la signalisation des ligands LIGHT et TL1A par DcR3 est impliqué dans une telle protection. D'ailleurs, nous avons identifié par ARN microarray quelques molécules en aval de cette interaction, qui peuvent jouer un rôle dans le mécanisme d’action. Nous avons par la suite confirmé que Adcyap1 et Bank1 joue un rôle critique dans la protection des îlots de Langerhans médiée par DcR3. Notre étude a ainsi élucidé le lien qui existe entre la signalisation apoptotique médiée par Fas/FasL et la pathogénèse du SLE humain. Donc, malgré l’absence de mutations génétiques sur Fas et FasL dans le cas de cette pathologie, DcR3 est capable de beoquer cette signalisation et provoquer le SLE chez l’humain. Ainsi, DcR3 peut simultanément interférer avec la signalisation des ligands LIGHT et TL1A et causer un phénotype plus complexe que les phénotypes résultant de la mutation de Fas ou de FasL chez certains patients. DcR3 peut également être utilisé comme paramètre diagnostique potentiel pour le SLE. Les découvertes du mécanisme de protection des îlots de Langerhans par DcR3 ouvrent la porte vers de nouveaux horizons afin d'explorer de nouvelles cibles thérapeutiques pour protéger la greffe d'îlots.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire est le cancer gynécologique le plus agressif avec le plus haut taux de mortalité. La croissance des cellules cancéreuses de l’ovaire est limitée par les nutriments de l’environnement, le fer étant un des éléments indispensables à leur prolifération. L’hémochromatose héréditaire est une maladie associée à une accumulation corporelle de fer. Cette maladie est liée à deux mutations majeures du gène HFE soit H63D et C282Y. Étant donnée l’influence de la protéine HFE sur l’entrée du fer dans la cellule, des mutations du gène HFE pourraient être associées à une croissance rapide des cellules cancéreuses. Des études de génotypage du gène HFE effectuées chez 526 patientes avec cancer épithélial de l’ovaire, ont révélées une fréquence allélique de la mutation C282Y significativement plus élevées chez les patientes avec tumeur ovarienne comparativement aux patientes du groupe contrôle (5.9% versus 1.3%, p = 0.02). De plus, le taux de survie des patientes avec mutations C282Y et tumeur ovarienne de G3, après 2 ans, est faible (20%) lorsque comparé à celui des patientes sans mutations (60%, p = 0.005). Une analyse de régression multivariée de Cox a démontrée un risque relatif de 3.1, suggérant que les patientes avec mutations C282Y ont 3 fois plus de chance d’avoir une faible survie (p=0.001). Également, des études de corrélation ont démontrées que les niveaux de ferritine du sérum étaient plus élevés chez les patientes avec grade avancé du cancer épithélial de l’ovaire (r = 0.445 et p= 0.00001), suggérant que ce paramètre pourrait servir comme marqueur tumoral. Afin de comprendre ces résultats, nous avons tout d’abord étudiés l’influence des mutations HFE sur les cellules cancéreuses. Pour ce faire, la lignée du cancer de l’ovaire TOV-112D, homozygote pour la mutation C282Y, a été transfectée avec les vecteurs HFEwt et HFEC282Y. Bien qu’aucune différence significative n’ait été trouvée en termes de TfR totaux, des analyses par FACS ont démontrées un phénotype de déficience de fer pour les clones stables HFEwt. In vitro, la restauration de la protéine HFE, dans la lignée TOV-112D du cancer de l’ovaire, n’influence pas la croissance cellulaire. Ensuite, nous avons étudiés l’influence des niveaux de fer sur la progression tumorale. Une expérience in vivo préliminaire a démontré une tendance à un volume tumoral supérieur dans un modèle de souris de surcharge de fer,HfeRag1-/-. De plus, les souris HfeRag1-/-, injectées avec la lignée du cancer de l’ovaire TOV-21G, ont montrées des niveaux significativement plus faibles de fer sérique comparativement à leur contrôle (fer sérique 40±7μM versus 27±6μM, p = 0.001). En conclusion, des études supplémentaires sont nécessaires afin de comprendre davantage le rôle des mutations HFE sur la progression tumorale. Notamment, les niveaux élevés de fer pourraient rendre les cellules tumorales résistantes aux traitements ou encore, augmenter la toxicité et ainsi, contribuer à un mauvais prognostique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ischémie aigüe (restriction de la perfusion suite à l’infarctus du myocarde) induit des changements majeurs des propriétés électrophysiologique du tissu ventriculaire. Dans la zone ischémique, on observe une augmentation du potassium extracellulaire qui provoque l’élévation du potentiel membranaire et induit un "courant de lésion" circulant entre la zone affectée et saine. Le manque d’oxygène modifie le métabolisme des cellules et diminue la production d’ATP, ce qui entraîne l’ouverture de canaux potassique ATP-dépendant. La tachycardie, la fibrillation ventriculaire et la mort subite sont des conséquences possibles de l’ischémie. Cependant les mécanismes responsables de ces complications ne sont pas clairement établis. La création de foyer ectopique (automaticité), constitue une hypothèse intéressante expliquant la création de ses arythmies. Nous étudions l’effet de l’ischémie sur l’automaticité à l’aide d’un modèle mathématique de la cellule ventriculaire humaine (Ten Tusscher, 2006) et d’une analyse exhaustive des bifurcations en fonction de trois paramètres : la concentration de potassium extracellulaire, le "courant de lésion" et l’ouverture de canaux potassiques ATP-dépendant. Dans ce modèle, nous trouvons que seule la présence du courant de lésion peut entrainer une activité automatique. Les changements de potassium extracellulaire et du courant potassique ATP-dépendant altèrent toutefois la structure de bifurcation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse examine la façon dont on interprète la santé et le bien-être des travailleuses célibataires et sans enfant au sein de deux types de récits : ceux provenant d’études publiées dans des périodiques (récits scientifiques) et ceux provenant d’entrevues qualitatives avec des membres de ce groupe (récits profanes). Sur le plan démographique, leur nombre est significatif; elles représentent 28% des employées canadiennes. Par contre, leur santé/bien-être est peu visible dans les écrits de recherche. Dans les sciences sociales, plusieurs études portent sur l’expérience parfois éprouvante d’être un adulte célibataire vivant dans une culture orientée sur le couple et la famille. Elles mettent l’accent sur le stigma associé à ce statut. Certains suggèrent même que les pratiques de recherche peuvent contribuer à la perpétuation de représentations négatives à l’égard des célibataires. En ayant un profil qui pourrait être symbolique d’une déviation vis-à-vis des attentes normatives entourant la vie de couple ou de famille, les travailleuses célibataires et sans enfant semblent un point de repère utile pour évaluer cette dernière possibilité. S’attarder autant aux récits scientifiques que profanes permettrait d’explorer les tensions et convergences entre eux. Suivant cet objectif, un échantillon de 32 articles scientifiques et de 22 retranscriptions d’entrevues ont été analysés selon une approche d’analyse de discours guidée par les concepts de répertoire interprétatif (une façon cohérente d’aborder un sujet donné) et de position du sujet (une identité mise en évidence par une façon de parler ou d’écrire). Trois articles ont émergé de cette recherche. Suite à une analyse des thèmes communs utilisés dans l’interprétation de la santé/du bien-être du groupe en question, un répertoire interprétatif surnommé la famille comme référence a été identifié. Ce répertoire expliquerait notamment la tendance observée d’expliquer leur santé/bien-être en référant aux états et aux charactéristiques d’être parent ou partenaire. Cette pratique peut avoir l’effet de voiler leur vie privée ou de la construire comme étant relativement appauvrie. L’article 2 examine comment les membres de ce groupe construisent leur propre bien-être. Il identifie la notion d’équilibre entre plusieurs sphères de vie et une identité de femme dynamique comme éléments centraux aux récits sur leur bien-être. Ces derniers vont à l’encontre de la perception des célibataires ou des personnes sans enfant comme ayant des vies moins épanouies ou enrichies et qui ne sont pas touchées par des questions de conciliation travail-vie personnelle. Le troisième article rassemble les deux types de récits autour des sujets de l’emploi et du statut de célibataire en lien avec le bien-être. Il met en évidence de nombreuses similarités et divergences, et théorise la fonction de ces diverses constructions. En conclusion, j’avance qu’une perspective plus critique face au statut de couple ou familial et de ses aspects normatifs pourrait offrir à la recherche en santé publique un point de réflexivité à développer davantage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le risque cardiométabolique (RCM) représente l’ensemble de tous les facteurs de risque pour les maladies cardiovasculaires et le diabète de type 2, incluant les facteurs de risque traditionnels et ceux émergents. Les évidences indiquent que la résistance à l’insuline, l’inflammation et le stress oxydant jouent un rôle clé dans le RCM, bien que l’acteur initiateur des altérations métaboliques caractéristiques du RCM reste encore à définir. Les femmes post-ménopausées constituent un sous-groupe important de la population puisque le risque de complications cardiométaboliques augmente après la ménopause. Les facteurs de RCM peuvent être modulés par l’alimentation, l’activité physique et la perte de poids. Alors que l’étude de nutriments / aliments spécifiques a permis de mieux comprendre l’implication de l’alimentation dans le RCM, celle de la qualité de l’alimentation est prometteuse. L’activité physique a des effets bénéfiques sur le RCM bien démontrés chez des personnes actives. Cependant, la relation entre la dépense énergétique et le RCM chez des individus sédentaires a été moins investiguée. De même, peu ou pas de données existent quant à une interaction synergique possible entre l’alimentation et l’activité physique sur le RCM. L’objectif de la présente thèse est d’investiguer les relations entre l’alimentation, l’activité physique, le stress oxydant et le RCM chez des femmes post-ménopausées en surpoids ou obèses, sédentaires et sans autres complications métaboliques. Les résultats montrent que d’une part, chez ces femmes sédentaires, une dépense énergétique active (DÉAP) élevée est associée à un meilleur profil inflammatoire, indépendamment de l’adiposité. D’autre part, il existe une relation synergique entre la qualité alimentaire et la DÉAP associée à un meilleur RCM. Une qualité alimentaire élevée combinée à une DÉAP élevée est associée à un meilleur profil lipidique et lipoprotéique et à une inflammation sub-clinique moindre, indépendamment de l’adiposité. Par ailleurs, dans une étude pilote, seuls des effets indépendants des changements de la qualité alimentaire et de la DÉAP sur les changements dans les facteurs de RCM ont été observés suite à cette diète hypocalorique de 6 mois, indépendamment du changement de l’adiposité encouru. En effet, au-delà de la réduction de l’adiposité et de l’amélioration du profil lipoprotéique induites par l’intervention, l’amélioration de la qualité alimentaire et de la DÉAP est associée, indépendamment l’une de l’autre, à une meilleure pression artérielle et un meilleur profil lipidique. Par ailleurs, une modification du système glutathion, un des systèmes antioxydants les plus communs de l’organisme, est associée à un RCM élevé. Une activité élevée de la glutathion peroxydase est associée à une résistance à l’insuline et à une épaisseur plus importante de l’intima-media de la carotide. Ces relations pourraient être médiées par un stress réducteur. En conclusion, l’adoption d’une saine alimentation et la pratique d’activités physiques doivent être encouragées dans les interventions visant à contrer l’obésité et ses complications, même en absence d’un changement d’adiposité. D’autre part, l’activité de la glutathion peroxydase pourrait être un paramètre impliqué dans le développement de désordres cardiométaboliques sub-cliniques et asymptomatiques chez des femmes obèses. D’autres investigations sont requises pour confirmer ces observations et élucider les mécanismes d’action impliqués.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis les dernières années, la prévalence de personnes souffrant de dégénérescence des cartilages articulaires, communément appelée ostéoarthrite (OA), ne cesse d’augmenter. Les douleurs articulaires et les raideurs musculaires associées à cette pathologie mènent à des limitations des capacités fonctionnelles, à une perte de mobilité et d’autonomie affectant grandement la qualité de vie de ces personnes. Afin de soulager les personnes souffrant de cette pathologie, l’arthroplastie de la hanche est une procédure chirurgicale fréquemment utilisée. À la suite de cette chirurgie, une amélioration de la qualité de vie et une reprise des capacités fonctionnelles sont souvent observées. Cependant, comparativement à des sujets sains, la vitesse de marche est diminuée, une faiblesse des muscles abducteurs de la hanche est constatée et des mouvements compensatoires au niveau du tronc sont persistants. L’objectif de cette thèse est d’évaluer le patron locomoteur chez des patients qui subiront une arthroplastie de la hanche. Plus spécifiquement, les adaptations locomotrices pré et post-opératoires seront quantifiées dans le but d’apporter des modifications aux programmes de réhabilitation pour ainsi favoriser un patron locomoteur sans déficit. Afin de répondre à cet objectif, trois études distinctes ont été effectuées. Dans le cadre de la première étude, l’impact de l’implantation d’une prothèse totale de la hanche avec une tête fémorale de large diamètre et une prothèse de resurfaçage a été évalué par rapport aux sujets sains lors de la locomotion. Au cours de cette étude, le contrôle du tronc a été analysé en utilisant la distance entre le centre de masse corporel et le centre articulaire de la hanche opérée. Suite aux résultats obtenus, aucune différence majeure n’existe entre les deux types de prothèses en ce qui a trait au contrôle du tronc et ce, à un an post-opératoire. Lors de la deuxième étude, la symétrie des paramètres biomécaniques des membres inférieurs lors de la locomotion chez des patients ayant bénéficié de l’implantation d’une prothèse de la hanche a été caractérisée suite à un programme d’exercices péri-opératoires (pré et post-opératoire). Lors de cette étude, le programme d’exercices péri-opératoires était complémentaire au protocole de réadaptation du centre hospitalier. D’après les résultats obtenus lors de cette étude exploratoire, ce programme d’exercices péri-opératoires semble permettre d’améliorer la symétrie de la puissance et du travail musculaire au niveau de la hanche, du genou et de la cheville favorisant ainsi un patron de marche avec de minimes compensations. Finalement, dans le cadre de la troisième étude, l’approche prédictive et l’approche fonctionnelle, utilisées pour localiser le centre articulaire de la hanche, ont été comparées aux mesures radiographiques, chez des patients à la suite d’un remplacement articulaire de la hanche. À la suite de cette étude, les résultats démontrent que l’utilisation de l’approche fonctionnelle est plus appropriée chez des patients ayant bénéficié d’une arthroplastie de la hanche. En effet, cette approche individualisée est plus précise ce qui, par conséquent, permettra d’obtenir des résultats de plus grande qualité lors d’analyses biomécaniques de la locomotion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.