203 resultados para Équation différentielle à délai


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail de nuit est associé avec plusieurs problèmes de santé. Le désalignement entre la phase circadienne et le cycle éveil-sommeil cause une désynchronie interne considérée comme la principale source de ces problèmes. L’ajustement circadien au travail de nuit est proposé comme contremesure. Normalement, l’ajustement circadien complet n’est pas recommandé puisqu’il engendre un désalignement circadien lors du retour à l’horaire de jour, causant des changements de phase répétés et la désynchronie interne. L’ajustement circadien partiel est alors proposé comme compromis afin de stabiliser les rythmes circadiens des travailleurs de nuit. Cependant, l’ampleur de l’ajustement circadien partiel nécessaire à l’amélioration du sommeil et de la vigilance demeure vague. Les ajustements partiels obtenus par délai ou avance de phase sont quantifiés non seulement par la phase du début de la sécrétion de mélatonine en lumière tamisée, mais également par le recoupement de l’épisode de sécrétion de mélatonine avec les périodes d’éveil et de sommeil. Les effets sur le sommeil et la vigilance d’un petit ajustement circadien partiel significatifs sont investigués dans une simulation de travail de nuit en laboratoire pour déterminer leurs implications cliniques. Les effets modestes suggèrent qu’un petit délai de phase peut réduire l’accumulation de la dette de sommeil, alors que l’avance de phase améliore subjectivement la vigilance et l’humeur nocturne. L’ampleur absolue du changement de phase est associée à une amélioration subjective de la vigilance et de l’humeur nocturne. Des études en milieux de travail permettraient de déterminer si ces stratégies sont applicables et bénéfiques aux travailleurs de nuit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cryptococcus neoformans var. grubii est responsable de la majeure partie des infections au Cryptococcus chez les individus infectés au VIH-1. Cryptococcus gattii infecte généralement les personnes immunocompétentes. Afin de comprendre les mécanismes responsables de la susceptibilité différentielle de ces espèces lors de l’infection au VIH-1, nous avons établi et caractérisé un modèle novateur de la cryptococcose chez des souris transgéniques (Tg) CD4C/HIVMutA exprimant des gènes du VIH-1, et qui développent une maladie similaire au SIDA. Les objectifs sont de démontrer une différence significative au niveau de la survie, de la réponse inflammatoire et du recrutement cellulaire pulmonaire en fonction de la présence du transgène et de l’espèce de Cryptococcus inoculée. Des analyses de survie, d’histopathologie et de cytométrie en flux sur les populations cellulaires pulmonaires ont été effectuées. Les souris Tg infectées avec C. neoformans H99 ou C23 ont démontré une survie réduite et une augmentation de la dissémination comparativement aux souris non-Tg, contrairement aux souris Tg infectées au C. gattii R265 ou R272. L’examen histopathologique des poumons de souris Tg infectées au H99 a montré une faible réponse inflammatoire, contrairement aux souris non-Tg. Pour la souche R265, il y avait une très faible réponse inflammatoire chez les deux types de souris. Enfin, l’étude des populations cellulaires du poumon a révélé chez les souris Tg une augmentation des pourcentages de macrophages interstitiels et de cellules polymorphonucléaires, ainsi qu’une diminution des lymphocytes T CD4+ et CD8+, indépendamment de l’infection au Cryptococcus. Ce modèle novateur représente donc un outil très pertinent pour l’étude de l’immunopathogenèse de la cryptococcose dans le contexte du VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le facteur le plus important de pronostic de l'asthme professionnel (AP) est la durée des symptômes avant le retrait de lʼexposition à lʼagent causant lʼAP. La qualité de vie réduite, la détresse psychologique et les maladies psychiatriques sont des conditions souvent associées à l'AP. Notre objectif était d'identifier les facteurs, incluant le statut socioéconomique, qui ont une influence sur lʼintervalle de temps nécessaire pour présenter une requête à une agence médicolégale à la suite de lʼapparition de symptômes dʼasthme et de confirmer qu'un tel délai est associé à un moins bon pronostic respiratoire et à des coûts directs plus élevés. En outre, nous avons examiné la relation entre les variables cliniques et socio-économiques dʼune part et leur influence sur les facteurs psychologiques et économiques dʼautre part chez des travailleurs atteints d'AP. Ensuite, nous avons voulu évaluer si les individus souffrant de détresse psychologique (DP) et de morbidité psychiatrique pourraient être identifiés en utilisant un instrument mesurant la qualité de vie (QV). Lʼétude a été effectuée auprès dʼindividus ayant déposé des demandes d'indemnisation pourʼAP auprès du Commission de la sécurité et de la santé du travail du Québec (CSST). Les données ont été recueillies au moment de la réévaluation, soit environ deux ans et demi après le diagnostic. Outre la collecte des marqueurs cliniques de l'asthme, les individus ont été soumis à une évaluation générale de leur histoire sociodémographique et médicale, à une brève entrevue psychiatrique (évaluation des soins primaires des troubles mentaux, PRIME-MD) et à un ensemble de questionnaires, incluant le Questionnaire sur la qualité de vie - AQLQ(S), le Questionnaire respiratoire de St. George (SGRQ) et le Psychiatric Symptom Index (PSI).Soixante personnes ont été incluses dans l'étude. Etre plus âgé, avoir un revenu supérieur à 30 000$ CA etêtre atteint dʼAP dû à un allergène de haut poids moléculaire ont une association positive avec le nombre dʼannées dʼexposition avec symptômes avant le retrait. Au cours de la période de suivi, le nombre dʼannées dʼexposition avec symptômes était plus grand chez les individus ayant une hyperréactivité bronchique persistante. Par ailleurs, la présence de symptômes au poste de travail pendant moins d'un an est associée à une réduction des coûts directs. Les paramètres de QV et de DP avaient des corrélations modérées avec les marqueurs cliniques de lʼAP. Les plus fortes associations avec ces variables ont pu être observées dans les cas de la sévérité de l'asthme, des statuts dʼemploi et matrimonial, du revenu et de la durée de la période de travail avec l'employeur. Un seuil de 5,1 au niveau de la sous-échelle de la fonction émotionnelle de lʼAQLQ(S) sʼest avéré avoir la meilleure valeur discriminante pour distinguer les individus avec ou sans détresse psychiatrique cliniquement significative selon le PSI. Nous avons été en mesure d'identifier les variables socio-économiques associées à un intervalle plus long dʼexposition professionnelle en présence de symptômes dʼasthme. De même, une plus longue période d'exposition a été associée à un moins bon pronostic de la maladie et à des coûts de compensation plus élevés. Ces résultats s'avèrent utiles pour la surveillance de lʼAP qui pourrait cibler ces sous-groupes d'individus. La QV et la PS sont fréquemment réduites chez les individus atteints d'AP qui perçoivent une compensation. Elles sont associées à des marqueurs cliniques de lʼasthme et à des facteurs socio-économiques. En outre, nos résultats suggèrent que le questionnaire de lʼAQLQ(S) peut être utilisé pour identifier les individus avec un niveau de détresse psychologique potentiellement significatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oxydoréduction de monocouches auto-assemblées (SAMs) de ferrocénylalcanethiolates à la surface d’or (FcRSAu) a été étudiée en temps réel par la spectroscopie de résonance de plasmons de surface couplée avec l’électrochimie (E-SPR). La sensibilité de cette technique permet de déterminer des changements d’épaisseur de couche l’ordre de quelques angström résultant d’un changement de structure de la SAM. Plusieurs études antérieures ont proposé que l’oxydation électrochimique d’une SAM de FcRSAu induit une réorientation moléculaire. L’E-SPR est utilisé pour identifier l’origine de ce changement structurel. D’abord, une calibration du réfractomètre SPR utilisé a été effectuée afin de trouver une équation de conversion du signal SPR obtenu en pixel en angle d’incidence pour que l’on puisse calculer le changement d’épaisseur de monocouche à partir du changement d’angle de résonance avec le modèle de Fresnel. Par la suite, une caractérisation approfondie des SAMs de FcCnSAu (où n = 6, 8, 12, 14) en contact avec du NaClO4 acidifié a été réalisée par électrochimie, éllipsométrie, spectroscopie infrarouge et microscopie à force atomique. Les résultats obtenus montrent que l’augmentation de la longueur des chaînes alkyles donne des SAMs de ferrocènes plus épaisses et moins désordonnées. L’analyse par l’E-SPR de ces SAMs pures montre que le changement d’épaisseur induit par l’électro-oxydation dépend linéairement du nombre de méthylènes sur la chaîne alkyle. En appliquant la déconvolution mathématique aux voltampérogrammes cycliques enregistrés pour les SAM mixtes (FcC12SAu/C11SAu) de différentes compositions, on arrive à la conclusion qu’il y a un redressement des chaînes alkyles dans les domaines des ferrocènes agrégés mais la réorientation des têtes de ferrocène dans les domaines de ferrocènes agrégés ou dispersés ne peut pas être exclue. Enfin, l’effet de l’anion électrolytique sur le changement d’épaisseur de la SAM mesuré par l’E-SPR a été étudié. L’analyse électrochimique montre que la capacité de pairage d’anions avec les ferrocéniums décroit comme suit : PF6- > ClO4- > BF4- > NO3-. Tandis que l’épaisseur de la SAM donnée par le changement d’angle de résonance suit la tendance suivante : NO3- ≥ ClO4- > PF6- ≈ BF4-. Des études plus approfondies seront nécessaire pour clarifier cette tendance observée par E-SPR.