1000 resultados para SPACE MISSION


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les vies de millions de personnes sont dévastées par des désastres naturels à travers le monde. Les écrits scientifiques relatifs aux efforts humanitaires dans ces contextes ciblent les travailleurs humanitaires sans toutefois les différencier quant à leur appartenance disciplinaire ou à l’organisation qui les emploie. Les connaissances liées à la pratique des infirmières dans le contexte d’urgence humanitaire sont limitées, malgré qu’elles jouent un rôle vital auprès des populations touchées. Cette ethnographie focalisée, guidée par la théorie du caring bureaucratique de Ray (1989) répond à la question de recherche: Comment des infirmières ayant participé à une mission humanitaire d’urgence suite au séisme à Haïti en janvier 2010 au sein de l’organisation Médecins Sans Frontières décrivent-elles leur pratique dans les contextes légal, politique, économique, éducationnel, socioculturel, physique et technologique de cette expérience? Des entrevues semi-structurées en profondeur de 90 minutes ont été menées auprès de quatre participantes qui ont également échangé à propos de photographies prises durant leurs missions. Les participantes ont discuté de leur préparation, de leurs objectifs, des rôles qu’elles assumaient, ainsi que des défis rencontrés au retour de leurs missions. Des facteurs inhérents à l’infirmière et à l’organisation ont émergé comme importants pour l’articulation et la délimitation de leur pratique. Cette étude révèle également que des facteurs contextuels importants, soit l’équipe, le temps, l’environnement physique, la médiatisation, la sécurité, ainsi que les conditions de travail et les contextes sociopolitique et culturel avaient une influence sur la pratique. Les participantes, selon leur évaluation de ces contextes et des besoins immédiats, devaient constamment ajuster leur pratique. Cette recherche permet une meilleure compréhension de la pratique d’infirmières dans un contexte d’urgence humanitaire de laquelle découlent des implications pour la pratique, la formation et la recherche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mémoire immunitaire permet à l’organisme de se souvenir de tous les agents pathogènes rencontrés afin de pouvoir monter une réponse immunitaire plus rapide et plus efficace en cas de réinfection. Après la phase de contraction de la réponse primaire, les lymphocytes T CD8 mémoires survivent grâce à la présence de cytokines telle que l’interleukine 15 (IL-15). Ces cellules permettent aussi au système immunitaire de contrôler les virus latents n’ayant pas été totalement éliminés de l’hôte. Les situations de stress chronique affectent le système immunitaire provoquant la réactivation des virus latents. Des titres viraux élevés de virus de la famille Herspeviridea ont été observés chez les astronautes à leur retour de mission, suggérant que les hormones libérées en situation de stress auraient un impact négatif sur les lymphocytes T CD8+ mémoires. Un modèle de stress chronique in vitro chez la souris a été élaboré en ajoutant de la corticostérone à des lymphocytes T CD8+ mémoires. Il a ainsi été démontré que l’hormone de stress avait un effet pro-apoptotique sur ces cellules et que cet effet était partiellement inhibé par l’IL-15. Des cibles moléculaires ont aussi été identifiées afin de suivre la fonction immunitaire mémoire lors des vols spatiaux à l’aide du cytomètre en flux Microflow1, une nouvelle plateforme portative de diagnostic biomédical. Les résultats des tests en laboratoire puis dans la Station Spatiale Internationale (SSI) démontrent qu’il sera possible de suivre la fonction immunitaire mémoire et les marqueurs de stress en temps réel lors des vols spatiaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des quelques 850 œuvres acquises par les écoles primaires et secondaires du Québec depuis les années 1980, en vertu de la Politique d’intégration des arts à l’architecture, il semble que peu d’entre elles s’adressent aux publics, enfant et adulte, qui les côtoient. La compréhension des enfants n’est pas toujours prise en compte dans le choix des œuvres commandées par un comité adulte. De même, lorsque les jeunes les rencontrent, leur sentiment spontané peut être refoulé par l’interprétation qu’en fait l’autorité – éducateur, surveillant ou parent – au profit d’un sens induit par la culture d’une société de droit. On remarque alors que le regard de l’enfant qui le pousse vers l’œuvre pour en parfaire la connaissance par l’expérience de ses sens – vision, toucher, audition, spatialité – est discrédité par celui de l’adulte qui a pour mission d'instruire et de socialiser l’élève en l’amenant à adopter un certain civisme. Comparant la volonté institutionnelle inscrite dans les textes législatifs et les rapports des comités d’intégration des œuvres à l’architecture, en amont, et les comportements et discours des enfants et adultes autour des œuvres, en aval, l’aperception des enfants dans le système scolaire peut être mise en adéquation avec l’aperception des œuvres intégrées aux écoles. L’enfant et l’œuvre dans l’institution sont-ils considérés pour eux-mêmes ou ne sont-ils vus par l’adulte qu’à travers une projection idéelle de ce qu’ils doivent être? Ainsi sera étudiée, théoriquement et empiriquement, la place laissée à l’enfant comme à l’œuvre dans l’espace scolaire afin de déterminer l’autonomie de chacun dans la relation avec l’adulte. Les théories de l’expérience matérielle, le pragmatisme deweyen et le socioconstructivisme vygotskien permettront de mettre en doute le constructivisme, le behaviorisme et le prétendu socioconstructivisme mis en œuvre dans l’institution. Par le biais de l’étude, il est compris que l’œuvre est synonyme de la place de l’enfant dans l’espace scolaire. L’adulte réserve à l’enfant, tout comme à l’œuvre, une place légitimant la sienne. À l’inverse, l’enfant intègre l’espace à sa représentation sans discrimination innée de genre, d’espèce ou de forme, comprenant l’œuvre comme lui-même.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simple and efficient method for determining the complex permittivity of dielectric materials from both reflected and transmitted signals is presented. It is also novel because the technique is implemented using two pyramidal horns without any focusing mechanisms. The dielectric constant of a noninteractive and distributive (NID) mixture of dielectrics is also determined

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The question of stability of black hole was first studied by Regge and Wheeler who investigated linear perturbations of the exterior Schwarzschild spacetime. Further work on this problem led to the study of quasi-normal modes which is believed as a characteristic sound of black holes. Quasi-normal modes (QNMs) describe the damped oscillations under perturbations in the surrounding geometry of a black hole with frequencies and damping times of oscillations entirely fixed by the black hole parameters.In the present work we study the influence of cosmic string on the QNMs of various black hole background spacetimes which are perturbed by a massless Dirac field.