967 resultados para Odd third order intensity parameters
Resumo:
Maximum production rates ofs and decay kinetics for the hydrated electron, the indolyl neutral radical and the indole triplet state have been obtained in the microsecond, broadband (X > 260 nm) flash photolysis of helium-saturated, neutral aqueous solutions of indole, in the absence and in the presence of the solutes NaBr, BaCl2*2H20 and CdSCV Fluorescence spectra and fluorescence lifetimes have also been obtained in the absence and in the presence of the above solutes, The hydrated electron is produced monophotonically and biphotonically at an apparent maximum rate which is increased by BaCl2*2H20 and decreased by NaBr and CdSOif. The neutral indolyl radical may be produced monophotonically and biphotonically or strictly monophotonically at an apparent maximum rate which is increased by NaBr and CdSO^ and is unaffected by BaCl2*2H20. The indole triplet state is produced monophotonically at a maximum rate which is increased by all solutes. The hydrated electron decays by pseudo first order processes, the neutral indolyl radical decays by second order recombination and the indole triplet state decays by combined first and second order processes. Hydrated electrons are shown to react with H , H2O, indole, Na and Cd"*""1"". No evidence has been found for the reaction of hydrated electrons with Ba . The specific rate of second order neutral indolyl radical recombination is unaffected by NaBr and BaCl2*2H20, and is increased by CdSO^. Specific rates for both first and second order triplet state decay processes are increased by all solutes. While NaBr greatly reduced the fluorescence lifetime and emission band intensity, BaCl2*2H20 and CdSO^ had no effect on these parameters. It is suggested that in solute-free solutions and in those containing BaCl2*2H20 and CdSO^, direct excitation occurs to CTTS states as well as to first excited singlet states. It is further suggested that in solutions containing NaBr, direct excitation to first excited singlet states predominates. This difference serves to explain increased indole triplet state production (by ISC from CTTS states) and unchanged fluorescence lifetimes and emission band intensities in the presence of BaCl2*2H20 and CdSOt^., and increased indole triplet state production (by ISC from S^ states) and decreased fluorescence lifetime and emission band intensity in the presence of NaBr. Evidence is presented for (a) very rapid (tx ^ 1 us) processes involving reactions of the hydrated electron with Na and Cd which compete with the reformation of indole by hydrated electron-indole radical cation recombination, and (b) first and second order indole triplet decay processes involving the conversion of first excited triplet states to vibrationally excited ground singlet states.
Resumo:
The goal of this thesis was to study factors related to the development of Brassica juncea as a sustainable nematicide. Brassica juncea is characterized by the glycoside (glucosinolate) sinigrin. Various methods were developed for the determination of sinigrin in Brassica juncea tissue extracts. Sinigrin concentrations in plant tissues at various stages of growth were monitored. Sinigrin enzymatically breaks down into allylisothiocyanate (AITC). AITC is unstable in aqueous solution and degradation was studied in water and in soil. Finally, the toxicity of AITC against the root-lesion nematode (Pratylenchus penetrans) was determined. A method was developed to extract sinigrin from whole Brassica j uncea tissues. The optimal time of extraction wi th boiling phosphate buffer (0.7mM, pH=6.38) and methanol/water (70:30 v/v) solutions were both 25 minutes. Methanol/water extracted 13% greater amount of sinigrin than phosphate buffer solution. Degradation of sinigrin in boiling phosphate buffer solution (0.13%/minute) was similar to the loss of sinigrin during the extraction procedure. The loss of sinigrin from boiling methanol/water was estimated to be O.Ol%/minute. Brassica juncea extract clean up was accomplished by an ion-pair solid phase extraction (SPE) method. The recovery of sinigrin was 92.6% and coextractive impurities were not detected in the cleaned up extract. Several high performance liquid chromatography (HPLC) methods were developed for the determination of sinigrin. All the developed methods employed an isocratic mobile phase system wi th a low concentration of phosphate buffer solution, ammonium acetate solution or an ion-pair reagent solution. A step gradient system was also developed. The method involved preconditioning the analytical column with phosphate buffer solution and then switching the mobile phase to 100% water after sample injection.Sinigrin and benzyl-glucosinolate were both studied by HPLC particle beam negative chemical ionization mass spectrometry (HPLCPB- NCI-MS). Comparison of the mass spectra revealed the presence of fragments arising from the ~hioglucose moiety and glucosinolate side-chain. Variation in the slnlgrin concentration within Brassica juncea plants was studied (Domo and Cutlass cuItivars). The sinigrin concentration in the top three leaves was studied during growth of each cultivar. For Cutlass, the minimum (200~100~g/g) and maximum (1300~200~g/g) concentrations were observed at the third and seventh week after planting, respectively. For Domo, the minimum (190~70~g/g) and maximum (1100~400~g/g) concentrations were observed at the fourth and eighth week after planting, respectively. The highest sinigrin concentration was observed in flower tissues 2050±90~g/g and 2300±100~g/g for Cutlass and Domo cultivars, respectively. Physical properties of AITC were studied. The solubility of AITC in water was determined to be approximately 1290~g/ml at 24°C. An HPLC method was developed for the separation of degradation compounds from aqueous AITC sample solutions. Some of the degradation compounds identified have not been reported in the literature: allyl-thiourea, allyl-thiocyanate and diallyl-sulfide. In water, AITC degradation to' diallyl-thiourea was favored at basic pH (9.07) and degradation to diallyl-sulfide was favored at acidic pH (4 . 97). It wap necessary to amend the aqueous AITC sample solution with acetonitrile ?efore injection into the HPLC system. The acetonitrile amendment considerably improved AITC recovery and the reproducibility of the results. The half-life of aqueous AITC degradation at room temperature did not follow first-order kinetics. Beginning with a 1084~g/ml solution, the half-life was 633 hours. Wi th an ini tial AITC concentration of 335~g/ml the half-life was 865 hours. At 35°C the half-life AITC was 76+4 hours essentially independent of the iiisolution pH over the range of pH=4.97 to 9.07 (1000~g/ml). AITC degradation was also studied in soil at 35°C; after 24 hours approximately 75% of the initial AITC addition was unrecoverable by water extraction. The ECso of aqueous AITC against the root-lesion nematode (Pratylenchus penetrans) was determined to be approximately 20~g/ml at one hour exposure of the nematode to the test solution. The toxicological study was also performed with a myrosinase treated Brassica juncea extract. Myrosinase treatment of the Brassica juncea extract gave nearly quantitative conversion of sinigrin into AITC. The myrosinase treated extract was of the same efficacy as an aqueous AITC solution of equivalent concentration. The work of this thesis was focused upon understanding parameters relevant to the development of Brassica juncea as a sustainable nematicide. The broad range of experiments were undertaken in support of a research priority at Agriculture and Agri-Food Canada.
Resumo:
Several recent studies have described the period of impaired alertness and performance known as sleep inertia that occurs upon awakening from a full night of sleep. They report that sleep inertia dissipates in a saturating exponential manner, the exact time course being task dependent, but generally persisting for one to two hours. A number of factors, including sleep architecture, sleep depth and circadian variables are also thought to affect the duration and intensity. The present study sought to replicate their findings for subjective alertness and reaction time and also to examine electrophysiological changes through the use of event-related potentials (ERPs). Secondly, several sleep parameters were examined for potential effects on the initial intensity of sleep inertia. Ten participants spent two consecutive nights and subsequent mornings in the sleep lab. Sleep architecture was recorded for a fiiU nocturnal episode of sleep based on participants' habitual sleep patterns. Subjective alertness and performance was measured for a 90-minute period after awakening. Alertness was measured every five minutes using the Stanford Sleepiness Scale (SSS) and a visual analogue scale (VAS) of sleepiness. An auditory tone also served as the target stimulus for an oddball task designed to examine the NlOO and P300 components ofthe ERP waveform. The five-minute oddball task was presented at 15-minute intervals over the initial 90-minutes after awakening to obtain six measures of average RT and amplitude and latency for NlOO and P300. Standard polysomnographic recording were used to obtain digital EEG and describe the night of sleep. Power spectral analyses (FFT) were used to calculate slow wave activity (SWA) as a measure of sleep depth for the whole night, 90-minutes before awakening and five minutes before awakening.
Resumo:
Children were afforded the opportunity to control the order of repetitions for three novel spatiotemporal sequences. The following was predicted: a) children and adults in the self-regulated (SELF) groups would produce faster movement (MT) and reaction times (R T) and greater recall success (RS) during retention compared to the age-matched yoked (YOKE) groups; b) children would choose to switch sequences less often than adults; c) adults would produce faster MT and RT and greater RS than the children during acquisition and retention, independent of experimental group. During acquisition, no effects were seen for RS, however for MT and RT there was a main effect for age as well as block. During retention a main effect for practice condition was seen for RS and failed to reach statistical significance for MT and RT, thus partially supporting our first and second hypotheses. The third hypothesis was not supported.
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
Nous nous sommes intéressés à l’analyse et à la mise à jour d’une typologie de l’aide reçue par les personnes âgées de 65 ans et plus vivant à domicile. Cette étude secondaire s’est basée sur les données recueuillies dans deux milieux francophones, Hochelaga-Maisonneuve (HM) et Moncton (MCT). La collecte de données avait été faite par l’entremise d’un questionnaire administré par entrevue face à face. Les deux objectifs, de cette thèse sont : 1) Établir une typologie des réseaux d’aide, résultant de la combinaison des sources d’aide et des tâches accomplies ; 2) Identifier les principaux déterminants d’appartenance aux réseaux. La typologie obtenue met en relation les ressources, formelles ou informelles, utilisées par les personnes âgées et l’aide instrumentale reçue. La capacité ou l’incapacité à effectuer neuf activités de la vie quotidienne et huit de la vie domestique ont servi à évaluer l’aide reçue. Six ressources formelles et dix informelles ont été examinées selon qu’elles étaient les 1ères, 2ièmes ou 3ièmes sources d’aide utilisées par les personnes âgées. L’approche privilégiée s’est inspirée de celle des réseaux sociaux et du modèle de Pescosolido. C’est l’influence des caractéristiques sociodémographiques des personnes âgées, de leurs états de santé, de leurs habitudes de vie sur leurs réseaux qui nous ont intéressés. Les résultats sont présentés à chaque fois pour nos deux milieux séparément. Nous commençons par un descriptif des sources d’aide utilisées et des aides reçues. Puis les profils des sources d’aide utilisées et des activités accomplies sont exposés pour l’ensemble des personnes âgées. Ces profils servent de base pour obtenir notre typologie. Elle comprend cinq catégories. Ces catégories sont toutes composées de personnes âgées faisant appel à de l’aide formelle, informelle ou mixte pour accomplir des tâches uniques ou multiples. La première catégorie « Transitoire », comprend 39% (HM) et 46% (MCT) des personnes âgées qui débute un processus d’incapacité. Elles font appel à des ressources informelles pour accomplir une tâche unique. La deuxième catégorie « Personnes âgées seules » en rassemble 14% (HM et MCT), majoritairement des femmes, avec peu d’incapacités. Ces dernières utilisent de l’aide formelle pour une tâche unique. La troisième catégorie « Familiale » regroupe 12% (HM et MCT) des personnes âgées bien entourées qui ont plusieurs incapacités. Ces gens font appel à des sources d’aide informelles pour réaliser des tâches multiples. La quatrième catégorie « Très fragile » rassemble 30% (HM) et 25% (MCT) des personnes âgées peu entourées ayant beaucoup d’incapacités. Elles utilisent des ressources d’aide mixtes pour effectuer des tâches multiples. La cinquième catégorie « Pré institutionnel » comprend 4% (HM et MCT) des personnes âgées qui ont le plus d’incapacités et qui sont seules. Ces gens font appel à de l’aide formelle pour des tâches multiples. Les déterminants d’appartenance à ces catégories proviennent des blocs sociodémographiques, état de santé et réseaux sociaux de notre modèle théorique. Une des contributions importantes de cette thèse a été de pouvoir identifier cinq catégories bien distinctes composant une typologie de l’aide reçue, indépendamment du milieu, par des personnes âgées vivant à domicile. MOTS CLÉS : Typologie, réseaux sociaux, personnes âgées, services de soins, formels, informels, aides reçues, sources d’aide, incapacités, déterminants d’appartenance, fragilité
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
The fashionable widespreading of Sen’s ideas coincides with a new mood in the shaping of public policies in affluent societies. In Europe indeed, an “opportunity”-based approach to social security has been implemented through the European Employment Strategy. Public action tends to rely on a procedural concern with individual opportunities or potentialities in the labour market. The underlying ethics is that individuals are then responsible to use these background opportunities in order to lead the kind of life they value most. More broadly, the discourse and practice of the so-called “Third Way” shares with the capability approach an appeal for a procedural and enabling depiction of the role of the State. The paper intends to clarify the relation between procedural and opportunity-based approaches to social justice, among them the capability approach, and these new patterns of public action. Our vision goes in the way of a yet renewed, but deeper action of the welfare state, where social agency is envisaged as the very condition of individual agency. Drawing on the various critics of mainstream equality of opportunity, two opposed approaches to responsibility are identified: on the one hand, responsibility is conceived of as i) a “luck vs. choice” fixed starting point, ii) a backward-looking conception and iii) a highly individualistic framework. On the other hand, responsibility is envisaged as i) an outcome of public policies rather than a starting point, ii) a forward-looking conception, and iii) a combined institutional-individual framework. We situate here Sen’s capability approach, as well as critics of the luck egalitarianism path. The Third Way rhetoric is assessed against both these perspectives. The issue eventually boils down to an ethical reflection on the articulation of responsibilities, and to a pragmatic and substantial concern for the content of what providing security should mean in practice.
Resumo:
Objectifs. L’objectif de ce mémoire est de parfaire nos connaissances quant à l’effet des actions policières sur les collisions routières au Québec. Ultimement, ce mémoire permettra d’identifier les conditions nécessaires pour que l’action policière influe sur les comportements des automobilistes. Pour se faire, deux études de cas sont employées. Dans un premier temps, nous évaluons l’effet d’un relâchement d’environ 60 % dans l’émission de constats d’infraction par les policiers de la ville de Québec sur les collisions avec blessures. Dans cet article, nous distinguons également les effets respectifs des constats d’infraction, des interceptions policières sans constat et des médias. Dans un second temps, nous évaluons l’impact d’une stratégie de sécurité routière mise en place conjointement par l’Association des directeurs de police du Québec (ADPQ) et la Société de l’assurance automobile du Québec (SAAQ). Dans les deux cas, un changement important est survenu dans l’émission de constats d’infraction émis en vertu du Code de la sécurité routière (CSR). Méthodologie. Afin d’évaluer l’effet de ces deux stratégies, nous avons agrégé les données sur les collisions et infractions au CSR sur une base mensuelle. Ces données proviennent principalement des rapports de collisions et des constats d’infraction remplis par les policiers et transmis à la SAAQ. Dans l’ensemble, nous avons utilisé un devis quasi-expérimental, soit celui des séries chronologiques interrompues. Résultats. Les résultats des deux articles démontrent que les policiers sont des acteurs clés en matière de sécurité routière. Les collisions avec blessures sont affectées par les fluctuations de leurs activités. La première série d’analyses établit qu’un relâchement d’environ 60 % dans le nombre de constats émis par les policiers se traduit par une hausse d’environ 10 % des collisions avec blessures, ce qui correspond à 15 collisions avec blessures supplémentaires par mois sur le territoire du Service de police de la ville de Québec. De plus, nos résultats montrent qu’une interception policière suivie d’un avertissement verbal n’est pas suffisante pour prévenir les collisions. De même, l’effet observé n’est pas attribuable aux médias. La deuxième série d’analyse montre que la stratégie conjointe de l’ADPQ et de la SAAQ, caractérisée par une hausse des constats émis et des campagnes médiatiques, fut suivie de baisses variant entre 14 et 36 % des collisions avec blessures graves. Interprétation. Les résultats démontrent que les actions policières ont une influence sur le bilan routier. Par contre, avant d’influer sur le comportement des automobilistes, certaines conditions doivent être respectées. Premièrement, l’intensité des contrôles policiers doit être suffisamment modifiée par rapport à son niveau initial. Deuxièmement, que ce soit une hausse ou une baisse, ce niveau doit être maintenu sur une période relativement longue (entre 12 et 24 mois environ) pour que les automobilistes soient exposés au message pénal et qu’ils considèrent ce changement dans le niveau de répression comme étant crédible. Troisièmement, l’émission de constats est un élément clé; la simple présence policière n’est pas suffisante pour prévenir les collisions. Enfin, les campagnes de sensibilisation semblent importantes, mais d’autres études sont nécessaires pour mieux apprécier leur rôle.
Resumo:
Ce mémoire présente, dans une première partie, une analyse détaillée des flux migratoires entre les différentes régions administratives du Québec entre 1991 et 2006. Nous avons utilisé quelques indicateurs permettant de quantifier l’importance de ces mouvements à la fois sur la région d’origine et sur la population d’accueil. Afin de réaliser ce travail, nous avons eu recours aux matrices de flux migratoires entre les 17 régions administratives québécoises, matrices qui sont publiées par l’Institut de la Statistique du Québec à l’aide du fichier de la Régie de l’assurance-maladie du Québec (RAMQ). Les méthodes d’analyse utilisées nous ont permis de mesurer l’intensité de ces flux, leur concentration spatiale, l’orientation spatiale des émigrants, les hiérarchies des régions administratives ainsi que l’efficience des migrations interrégionales du Québec. Nous avons analysé comment les régions administratives du Québec sont affectées par la migration interrégionale. Dans une deuxième partie, nous avons porté notre attention sur la migration interrégionale en fonction de certains groupes d’âge. L’étude des migrations en fonction du groupe d’âge a permis de mieux saisir les conséquences démographiques de ces mouvements pour les régions d’origine et de destination, particulièrement en ce qui concerne la structure de la population résultant de ces flux. Finalement, dans une troisième partie, nous avons analysé les mouvements migratoires entre l’île de Montréal et les Municipalités Régionales de Comté des quatre régions qui l’entourent afin de comprendre la part de l’étalement urbain dans l’émigration des Montréalais. Les résultats obtenus nous permettent de conclure en dégageant certaines tendances. D’abord, nous avons établi que les migrations dans la province de Québec se font des régions éloignées vers les régions du centre. Ces régions gagnantes renferment ou avoisinent les grands centres urbains de la province : Québec, Montréal et Ottawa. Nous assistons donc à une redéfinition du paysage québécois : le nord se déserte, le centre a une faible croissance et la grande région de Montréal, plus particulièrement les régions en banlieue de l’île de Montréal, est en nette croissance. Ensuite, l’analyse par groupe d’âge a illustré que les régions excentrées ont très rarement des soldes positifs et que les jeunes sont très nombreux à quitter ces régions. Pour l’île de Montréal, ce sont les jeunes qui arrivent en grand nombre. Cependant, après la trentaine, les gens désertent l’île pour d’autres régions de la province. Ces départs profitent aux régions adjacentes, qui font d’énormes gains chez les jeunes travailleurs. Finalement, l’analyse des échanges migratoires entre l’île de Montréal et les MRC des quatre régions adjacentes nous a permis de constater que ces MRC sont très souvent gagnantes dans leurs échanges migratoires. Particulièrement lors de la période 2001-2006, où seulement deux territoires sont perdants dans leurs échanges migratoires avec les autres régions du système, soit l’île de Montréal et la MRC de Longueuil.
Resumo:
Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.
Resumo:
Bien que les infections à Besnoitia tarandi sont documentées chez l’espèce Rangifer sp. depuis 1922, les données récoltées sur l’écologie et la distribution de cette parasitose demeurent rares. Les objectifs de cette étude ont donc été (i) d’identifier le meilleur tissu à échantillonner pour détecter les infections à Besnoitia tarandi dans les populations de caribous, (ii) de calculer la sensibilité et la spécificité de l’examen visuel comparativement à l’examen microscopique et (iii) d’identifier les facteurs de risques intrinsèques et extrinsèques associés à cette parasitose afin (iv) de comparer la prévalence et la densité des kystes parasitaires entre certains troupeaux. Nos résultats suggèrent que l'examen microscopique du derme superficiel d’une section de peau provenant du tiers moyen antérieur du métatarse devrait être privilégié pour dépister les infections par B. tarandi et en évaluer l'intensité. L’examen microscopique est également un outil très sensible comparativement à l’examen visuel des kystes parasitaires. Besnoitia tarandi, qui semble être absent du Groenland, a été observé dans environ un tiers des caribous nord-américains. Une variation saisonnière de prévalence et d'intensité de B. tarandi a été détectée; le parasite étant plus abondant chez cet hôte intermédiaire durant la période de l'automne/hiver comparativement à celle du printemps/été. Cet effet saisonnier pourrait être associé à une augmentation de l'abondance du parasite suite à la saison des insectes (i.e. été), supportant ainsi le rôle présumé des arthropodes piqueurs comme vecteurs de la maladie. Cette différence saisonnière pourrait aussi être expliquée par la diminution de la charge parasitaire par le système immunitaire et/ou par un taux de survie inférieur des animaux les plus parasités durant la saison froide. Les niveaux d'infection étaient légèrement plus élevés chez les mâles que chez les femelles, ce qui suggère soit une diminution du taux de mortalité, soit une exposition accrue ou une plus grande susceptibilité au parasite des mâles en comparaison aux femelles. La densité d’infection supérieure dans le troupeau Rivière-aux-Feuilles (Nunavik) suggère des niveaux d'exposition au parasite plus élevés et/ou une diminution des niveaux de résistance de ces caribous à ce protozoaire. Les résultats de cette étude démontrent que B. tarandi peut réduire les chances de survie des caribous infectés. Il sera donc important de continuer à surveiller les infections à B. tarandi surtout en cette période de changements climatiques.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Notre projet de mémoire consistait à valider auprès de personnes qui vieillissent et qui ont subi des pertes l’hypothèse de recherche suivante : « Comment l’intégration de grandes théories sur la vie spirituelle à l’outil du bilan de vie (à son questionnaire) aide l’aîné qui subit des pertes à trouver un sens à sa vie? » Notre projet de mémoire consistait à valider auprès de personnes qui vieillissent et qui ont subi des pertes l’hypothèse de recherche suivante : « Comment l’intégration de grandes théories sur la vie spirituelle à l’outil du bilan de vie (à son questionnaire) aide l’aîné qui subit des pertes à trouver un sens à sa vie? » Dans ce mémoire, nous nous intéressons à la problématique du vieillissement, notamment dans le cadre québécois, à ce vieillissement plus spécifique des aînés hémodialysés en situation de pertes. Cela dit, dans l’introduction, nous esquisserons le contexte général derrière le projet. Le mémoire est présenté selon les quatre étapes prévues par la méthode de la praxéologie pastorale, à savoir l’observation, l’interprétation, l’intervention et la prospective. Dans la première étape, nous introduirons les paramètres de notre observation en milieu pastoral. Nous chercherons ainsi à clarifier le problème rencontré, à partir des questions convenues en praxéologie pastorale: le qui, le quoi, le où, le quand, le comment et le pourquoi. Dans la seconde étape, nous tenterons de faire rencontrer des interprétations théoriques en vue de trouver une compréhension nouvelle du drame qui se joue. Ainsi, nous soulignerons que nous sommes redevables à quatre grandes théories sur la vie spirituelle quant au cadre de référence de notre recherche, à savoir Oser, Gmünder et Ridez; Vasse; Breton et Liébanas. La troisième étape se voudra une sorte d’évaluation des changements à apporter à la pratique, leurs impacts, les stratégies pour les mettre en place et les résistances qui ne manqueront pas de se manifester à leur égard. Dans la dernière étape, nous nous interrogerons sur les visions inconscientes du monde et de l’être humain véhiculées par l’intervention dans le but de se réajuster. Dans ce mémoire, nous avons identifié, à l’aide de l’outil du bilan de vie, six aspects de la vie spirituelle d’un aîné hémodialysé en situation de pertes, soit les représentations ou les images de Dieu, le sens du péché commis, les signes de l’existence du péché, l’antériorité de l’amour de Dieu par rapport au péché, les voies d’entrées à la vie spirituelle, les indications pour cheminer spirituellement et les effets de vie et de mort.