987 resultados para modélisation par équations structurelles


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’évaluation de l’exposition aux composés organiques volatils (COV) recourt couramment à l’analyse des métabolites urinaires en assumant qu’aucune interaction ne survient entre les composés. Or, des études antérieures ont démontré qu’une inhibition de type compétitive survient entre le toluène (TOL), l’éthylbenzène (EBZ) et le m-xylène (XYL). Le chloroforme, qui est également un solvant métabolisé par le CYP2E1, se retrouve souvent en présence des autres COV dans les échantillons de biosurveillance. La présente étude visait donc à évaluer si le chloroforme (CHL) peut lui aussi interagir avec ces COV et évaluer ces interactions au niveau de l’excrétion des biomarqueurs urinaires associés, soit l’o-crésol, l’acide mandélique et l’acide m-méthylhippurique pour TOL, EBZ et XYL respectivement. Afin d’obtenir des données humaines, cinq volontaires ont été exposés par inhalation à différentes combinaisons de COV (seuls et mélanges binaires ou quaternaires) où la concentration de chacun des composés était égale à 1/4 ou 1/8 de la valeur limite d’exposition (VLE) pour une durée de 6h. Des échantillons d’air exhalé, de sang et d’urine ont été récoltés. Ces données ont ensuite été comparées aux modèles pharmacocinétiques à base physiologique (PCBP) existants afin de les ajuster pour l’excrétion urinaire. Certaines différences ont été observées entre les expositions aux solvants seuls et les coexpositions, mais celles-ci semblent majoritairement attribuables aux remplacements de participants à travers les différentes expositions. Les valeurs de Vmax pour EBZ et CHL ont été optimisées afin de mieux prédire les niveaux sanguins de ces COV. À l’exception du modèle pour EBZ, tous les paramètres pour l’excrétion urinaire ont été obtenus à partir de la littérature. Les modèles adaptés dans cette étude ont permis de simuler adéquatement les données expérimentales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un modèle mathématique de la propagation de la malaria en temps discret est élaboré en vue de déterminer l'influence qu'un déplacement des populations des zones rurales vers les zones urbaines aurait sur la persistance ou la diminution de l'incidence de la malaria. Ce modèle, sous la forme d'un système de quatorze équations aux différences finies, est ensuite comparé à un modèle analogue mais en temps continu, qui prend la forme d'équations différentielles ordinaires. Une étude comparative avec la littérature récente permet de déterminer les forces et les faiblesses de notre modèle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe de médecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce mémoire, on étudie la désintégration d’un faux vide, c’est-à-dire un vide qui est un minimum relatif d’un potentiel scalaire par effet tunnel. Des défauts topologiques en 1+1 dimension, appelés kinks, apparaissent lorsque le potentiel possède un minimum qui brise spontanément une symétrie discrète. En 3+1 dimensions, ces kinks deviennent des murs de domaine. Ils apparaissent par exemple dans les matériaux magnétiques en matière condensée. Un modèle à deux champs scalaires couplés sera étudié ainsi que les solutions aux équations du mouvement qui en découlent. Ce faisant, on analysera comment l’existence et l’énergie des solutions statiques dépend des paramètres du modèle. Un balayage numérique de l’espace des paramètres révèle que les solutions stables se trouvent entre les zones de dissociation, des régions dans l’espace des paramètres où les solutions stables n’existent plus. Le comportement des solutions instables dans les zones de dissociation peut être très différent selon la zone de dissociation dans laquelle une solution se trouve. Le potentiel consiste, dans un premier temps, en un polynôme d’ordre six, auquel on y rajoute, dans un deuxième temps, un polynôme quartique multiplié par un terme de couplage, et est choisi tel que les extrémités du kink soient à des faux vides distincts. Le taux de désintégration a été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste à déterminer les conditions qui permettent aux kinks de catalyser la désintégration du faux vide. Il appert qu’on a trouvé une expression pour déterminer la densité critique de kinks et qu’on comprend ce qui se passe avec la plupart des termes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les changements climatiques prennent une importance grandissante dans l’étude des phénomènes spatiaux à grande échelle. Plusieurs experts affirment que les changements climatiques seront un des principaux moteurs de changement écologique dans les prochaines décennies et que leurs conséquences seront inévitables. Ces changements se manifesteront sur le milieu physique par la fonte des calottes glaciaires, le dégel du pergélisol, l’instabilité des versants montagneux en zone de pergélisol, l’augmentation de l’intensité, de la sévérité et de la fréquence des événements climatiques extrêmes tels les feux de forêt. Les changements climatiques se manifesteront aussi sur le milieu biologique, tel la modification de la durée de la saison végétative, l’augmentation des espèces exotiques invasives et les changements dans la distribution en espèces vivantes. Deux aspects sont couverts par cette étude : 1) les changements dans la répartition spatiale de 39 espèces d’oiseaux et 2) les modifications dans les patrons spatiaux des feux, en forêt boréale québécoise, tous deux dans l’horizon climatique de 2100. Une approche de modélisation statistique démontre que la répartition spatiale des oiseaux de la forêt boréale est fortement liée à des variables bioclimatiques (R2adj = 0.53). Ces résultats permettent d’effectuer des modélisations bioclimatiques pour le gros-bec errant et la mésange à tête noire quivoient une augmentation de la limite nordique de distribution de l’espèce suivant l’intensité du réchauffement climatique. Finalement, une modélisation spatialement explicite par automate cellulaire permet de démontrer comment les changements climatiques induiront une augmentation dans la fréquence de feux de forêt et dans la superficie brûlée en forêt boréale du Québec.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le filtrage de Bucy-Kalman s'applique au modèle d'état comprenant des équations linéaires bruitées, décrivant l'évolution de l'état et des équations linéaires bruitées d'observation . Ce filtrage consiste dans le cas gaussien, à calculer de façon récursive, la loi de probabilité, a posteriori, de l'état, au vu de l' observation actuelle et des observations passées . Le filtrage par densités approchées permet de traiter des équations d'état, non linéaires ou à bruits non Gaussiens. Pour un coefficient de rappel aléatoire, cas typique d'une situation de changements de modèles, l'article introduit une famille de lois de probabilité, paramétrées, bimodales servant, par ajustement des paramètres, à approcher les lois a posteriori de l'état aux divers instants . Les paramètres sont recalculés récursivement, lors des mises à jour et des prédictions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.