987 resultados para INTENSITIES
Resumo:
The optical cross section of PS I in whole cells of Porphyridium cruentum (UTEX 161), held in either state 1 or state 2, was determined by measuring the change in absorbance at 820nm, an indication of P700+; the X-section of PS2 was determined by measuring the variable fluorescence, (Fv-Fo)/Fo, from PS2. Both cross-sections were 7 determined by fitting Poisson distribution equations to the light saturation curves obtained with single turnover laser flashes which varied in intensity from zero to a level where maximum yield occurred. Flash wavelengths of 574nm, 626nm, and 668nm were used, energy absorbed by PBS, by PBS and chla, and by chla respectively. There were two populations of both PSi and PS2. A fraction of PSi is associated with PBS, and a fraction of PS2 is free from PBS. On the transition S1->S2, only with PBS-absorbed energy (574nm) did the average X-section of PSi increase (27%), and that of PS2 decrease (40%). The fraction of PSi associated with PBS decreased, from 0.65 to 0.35, and the Xsection of this associated PS 1 increased, from 135±65 A2 to 400±300A2. The cross section of PS2 associated with PBS decreased from 150±50 A2 to 85±45 A2, but the fraction of PS2 associated with PBS, approximately 0.75, did not change significantly. The increase in PSi cross section could not be completely accounted for by postulating that several PSi are associated with a single PBS and that in the transition to state2, fewer PSi share the same number of PBS, resulting in a larger X-section. It is postulated that small changes occur in the attachment of PS2 to PBS causing energy to be diverted to the attached PSi. These experiments support neither the mobile-PBS model of state transitions nor that of spillover. From cross section changes there was no evidence of energy transfer from PS2 to PSi with 668nm light. The decrease in PS2 fluorescence which occurred at this wavelength cannot be explained by energy transfer; another explanation must be sought. No explanation was found for an observed decrease in PSi yield at high flash intensities.
Resumo:
Using the energy dispersive x ...ray diffraction (EDXD) technique, the room temperature diffraction pattern of Al powder was obtained at diffraction angles ~ 30° and 50°. From the small angle diffraction pattern the average relative intensities (IR) of the (111), (200), and (220) lines were measured to be equal to 100, 62, and 32 respectively. From the large diffraction angle IR for the (220), (311+222), (400), (331+420), and (422) lines were measured to be 100,201,17,90, and 19.5 respectively. The diffraction pattern at those two angles were obtained at several higher temperatures to measure the change in the intensities of the Al lines. From the intensity changes the increase of the Debye- Waller temperature factor, i.e ~B(T), with respect to the value at room temperature was determined to be 0.6+0.1 at 250°C, 1.10+0.15 at 350°C, 1.45+0.20 at 450°C, and 2.20±0.35 at 550°C.
Resumo:
The fragmentation behavior of aryltin compounds [(p-ThAnis)nSnPh4.n (n=l-4); (p-ThAnis)3SnX (X=C1, Br, I); (o-CH30C6H4)3SnCl; Ph3Sn(o-pyr)] have been studied comparatively under EI and FAB ionization modes. Alkali halides were run under FAB mode. For the aryltin compounds, the effect of ligand type on the spectra have been explored in both EI and FAB modes. The fragmentation mechanisms have been examined with linked scans, such as fragment ion scans (B/E) and parent ion scans (B^/E). Ab Initio molecular orbital calculations were used to determine the structures of the fragments by comparing their relative stabilities. In the EI MS studies, negative ion EI mode has also been used for some of the aryltin compounds, to examine the possible ion molecule reactions under low pressures at 70eV. In the positive ion FAB MS studies, matrix optimization experiments have been carried out. Negative ion FAB experiments of all the compounds have been done in two different ways. Finally, the comparison of the two methods, EI MS and FAB MS, have been made.For alkali halides, the studies focused on the FAB MS behavior under different conditions. The intensities of cluster ions were reported, and the anomalies in the intensity distribution was also discussed.
Resumo:
Affiliation: Institut de recherche en immunologie et en cancérologie, Université de Montréal
Resumo:
Depuis plus de 50 ans, les chercheurs s’intéressent à la résistance au changement. Or, malgré plusieurs années de recherche, on ne sait toujours pas exactement quelles variables peuvent prédire les comportements de résistance et encore moins ceux de soutien. La présente thèse vise à pallier cette lacune en identifiant des variables pouvant expliquer à la fois les comportements de soutien et de résistance lors d’un changement organisationnel majeur. Le modèle des phases de préoccupations (Bareil 2004a) s’avère intéressant à cet effet puisqu’il intègre bien les savoirs actuels et s’adapte à différents changements. L’objectif principal de cette thèse est donc de vérifier jusqu’à quel point les comportements de soutien et de résistance peuvent être prédits par les phases de préoccupations, en tenant compte de l’engagement affectif envers le changement comme variable médiatrice et du rôle des acteurs et de l’avancement de la mise en œuvre comme variables modératrices. Pour ce faire, une étude a été menée auprès d’enseignants, de professionnels et de directeurs d’une Commission scolaire québécoise ayant implanté une réforme majeure provoquant des préoccupations d’intensité variée et des comportements divers, allant de la résistance au soutien. Les analyses acheminatoires effectuées auprès de deux échantillons indépendants (n=464 et n=171) indiquent que les premières phases du modèle (centrées sur le destinataire, l’organisation et le changement) sont liées positivement aux comportements de résistance et négativement à ceux de soutien. À l’inverse, les dernières phases (centrées sur l’expérimentation, la collaboration et l’amélioration continue) sont liées négativement aux comportements de résistance et positivement à ceux de soutien. Ainsi, plus on avance dans la séquence des phases de préoccupations, plus les comportements de soutien augmentent et ceux de résistance diminuent. Également, l’engagement affectif envers le changement agit à titre de variable médiatrice et permet d’expliquer davantage de variance des comportements de soutien et de résistance. De plus, les analyses de régression indiquent que les phases de préoccupations expliquent davantage de variance des comportements de soutien des agents de changement, alors qu’elles expliquent plus de variance des comportements de résistance des destinataires. On constate aussi que c’est au début de la mise en œuvre que les phases de préoccupations expliquent le plus de variance des comportements de soutien et de résistance. Finalement, un troisième échantillon (n=143) permet de suivre l’évolution des participants ayant répondu deux fois au questionnaire. Les tests t ne rapportent aucune différence significative entre les deux temps de mesure et ce, autant pour les phases de préoccupations que pour les comportements de soutien et de résistance. On constate que lorsque les phases de préoccupations n’évoluent pas, les comportements de soutien ou de résistance demeurent les mêmes. En somme, ces résultats indiquent qu’il est possible de prédire à la fois les comportements de soutien et de résistance avec les phases de préoccupations. En outre, on sait maintenant à quel moment et avec quel type d’acteurs le modèle des phases de préoccupations s’avère le plus utile. Afin de généraliser ces résultats, il serait pertinent de reproduire cette recherche dans une autre organisation qui implante un changement majeur.
Synthesis, properties and characterization of N-Alkyl substituted b-Diketiminato copper(I) Complexes
Resumo:
Le ligand nacnacxylH (xyl = C6Me2H3) et les ligands dikétimines N-alkyle substitués (nacnacCH(Me)PhH, nacnacBnH and nacnaciPrH) ont été préparés avec de bons rendements à l’exception du nacnaciPrH (23%) en utilisant un protocole en une étape et à l’aide d’un montage Dean-Stark. La réaction du S,S-nacnacCH(Me)PhH et du nacnacBnH avec le nBuLi dans le THF conduit au S,S-nacnacCH(Me)PhLi(THF) et au nacnacBnLi(THF). Les tentatives de bromation de ces composés par le N-bromosuccinimide conduisent plutôt aux ligands S,S-succnacnacCH(Me)PhH et succnacnacBnH (succ = succinimido) substitués par un groupement succinimido sur le carbone La chloration par le N-chlorosuccinimide conduit au produit désiré, mais avec des impuretés. La réaction de ces ligands avec le CuOtBu (ou bien MesCu, où Mes = C6Me3H2, et une quantité catalytique de CuOtBu) en présence de bases de Lewis donne les (nacnacxylCu)2(-toluène), nacnacxylCuCNC6H3(Me)2, nacnacCH(Me)PhCuL (L = PPh3, PMe3, CNC6H3(Me)2, DMAP, lutidine, Py, MeCN), nacnacBnCuL (L = PPh3, CNC6H3(Me)2, styrène, trans-stilbene, phenylvinylether, acrylonitrile, diphenylacetylène), nacnaciPrCuL (L = PPh3, CNC6H3(Me)2, MeCN) et le succnacnacCH(Me)PhCuL (PPh3, CNC6H3(Me)2, pyridine). Tous ces complexes sont jaunes et sensibles à l’air et à l’humidité. En l’absence de fortes bases de Lewis, on n’observe pas de réaction entre les précurseurs de cuivre et les ligands N-alkyle substitués. Les études RMN des complexes dans le C6D6 ne présentent pas de complexe de toluène mais un mélange à l’équilibre du (nacnacxylCu)2(-C6D6) et nacnacxylCu(C6D6) dans une proportion de 2 pour 1. Alors que l’addition de plus de cinquante équivalents soit de THF, soit de toluène n’induit aucun changement des spectres RMN, l’addition de 2 équivalents de MeCN conduit instantanément au complexe nacnacxylCu(MeCN). De plus, le (nacnacxylylCu)2(-C6D6) ne se coordone ni ne réagit avec le N2O, même après avoir été chauffé à 60°C pendant treize jours. En présence de DPA (diphenylacétylène), la réaction du nacnacBnH avec le CuOtBu conduit au dimère ponté (nacnacBnCu)2(µ-DPA). L’addition d’un excès de DPA (10-12 équivalents) transforme le dimère ponté en complexe lié en position terminale nacnacBnCuDPA. Les nacnacRH (R = CH(Me)Ph et i-Pr) ne forment pas de complexe ni avec les oléfines ni avec le DPA. Une réactivité similaire a été observée avec les complexes de nacnacCH(Me)PhCu(NCMe) et nacnaci-PrCu(NCMe). Tandis que le complexe lié en position terminale par MeCN a été isolé et caractérisé, l’équilibre en solution nous laisse suspecter la formation d’un complexe d’acétonitrile ponté. Des études de réactivité comparatives ont été menées sur quelques complexes de cuivre. La Morpholine ne réagit pas avec le nacnacBnCu(acrylonitrile) contrairement à l’acrylonitrile libre. L’expérience de l’échange d’oléfine montre que l’acrylonitrile (une oléfine électro-attractrice) se lie plus fortement que les autres oléfines, mettant ainsi en évidence l’importance de la rétrodonation face à la donation La rétrodonation est cependant faible comparée aux autres complexes de styrène structurellement caractérisés. Les complexes nacnacCH(Me)PhCuL (L = PPh3 et MeCN) ont été employés dans la cyclopropanation catalytique du styrène et dans l’addition conjuguée du ZnEt2 sur la 2-cyclohexénone, mais les résultats indiquent que le ligand dikétimine est éliminé avant son entrée dans le cycle catalytique. Par conséquent, il n’y a pas d’induction chirale. Les complexes tétra coordinées de cuivre avec les nacnacRCu(phen) (R = Bn, CH(Me)Ph et Phen = 1,10-phenanthroline, 2-Mes-1,10-phenanthroline, 2,9-dimethyl-1,10-phenanthroline (dmp) et 2,9-diphenyl-1,10-phenanthroline (dpp)) ont été synthétisés. Ces complexes sont d’une intense couleur bleue et des interactions d’empilement entre l’un des cycles phényle des ligands nacnac et la phénanthroline ont été observées dans les structures à l’état solide. Les mesures en absorption UV-visible ont été effectuées dans le toluène et les bandes MLCT sont déplacées vers le rouge par rapport à celles des complexes de cuivre et bisphénanthroline. Tous ces composés émettent à l’état solide mais les complexes 1,10-phenanthroline et 2-Mes-1,10-phenanthroline n’émettent pas en solution. Pour renforcer les interactions d’empilement , les nouveaux ligands nacnacRH (R = CH2C6H2(OMe)3, CH2C6F5) et leurs complexes de cuivre respectifs ont été préparés avec du dmp et dpp. Afin de permettre la comparaison, le nacnaciBuCu(dmp) a été synthétisé. Alors que les complexes dmp montrent une augmentation des interactions intramoléculaires - avec les substituants phényle du ligand dikétimine et de la phénanthroline, les complexes dpp ne révèlent pas de telles interactions. Les complexes perfluorés montrent, en absorption et en émission, un déplacement significatif vers le bleu, alors que les complexes substitués par un groupements isobutyle présentent des transitions déplacées vers le rouge. Alors que les intensités de luminescence et les durées de vie sont faibles, les déplacements réduits de Stokes et les pics étroits de luminescence comparables indiquent une réduction des distorsions de l’état excité.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
L’augmentation de la dépense énergétique (DE) par une augmentation de l'activité physique (AP) participe au maintien et à l’amélioration de la santé. La mesure à grande échelle de la DE totale (DET) en général et AP en particulier se heurte à des difficultés pratiques de recueil de données, de validité et aux coûts. Bien que dans la littérature de nombreux accéléromètres permettent d’estimer la DET, il y a encore des limites quant à la mesure de l’intensité de l’AP, élément qui influence l’état de la balance énergétique et le bénéfice pour la santé de l’AP. De plus, peu de comparaisons entre les différents accéléromètres sont disponibles. La présente étude avait pour but d’évaluer la capacité de deux accéléromètres (Actical et Sensewear Armband) pour estimer la DET en comparaison avec la technique de l’eau doublement marquée (EDM) ; d’évaluer la concordance entre les accéléromètres dans la mesure de la DE au repos (DER) en comparaison avec la technique de la calorimétrie indirecte (CI) et d’évaluer la DE liée à l’AP en comparaison avec la technique de la CI. Les résultats montrent qu’il y a une très bonne corrélation entre la CI et les accéléromètres dans la mesure de la DER(r > 0.80, p<0.001) et une bonne corrélation entre les accéléromètres et l’EDM dans la mesure de la DET(r>0.75, p<0.001). Pour la mesure de l’intensité de l’AP, l’ACT est plus précis (r=0.80, p<0.001)) que le SWA à la marche, le SWA est meilleur(r=0.80, p<0.001) au vélo. Cette étude permet d’affirmer que le SWA et l’ACT sont des alternatives valables pour mesurer la DE.
Resumo:
Au cours des dernières décennies, la popularité des plantes médicinales s’est accrue auprès des civilisations occidentales de sorte que la quantité de plantes récoltées, la plupart provenant de populations sauvages, a grandement augmenté. Dans ce contexte, l’objectif principal de mon mémoire est d’évaluer l’impact de la récolte de deux plantes médicinales (Sarracenia purpurea et Rhododendron groenlandicum) utilisées par la Nation Crie du Nord du Québec. Pour y parvenir, des parcelles expérimentales, simulant différentes intensités de récolte (S. purpurea) et différentes méthodes de récolte (R. groenlandicum), ont été mises en place, puis des suivis annuels de la reprise ont été réalisés. Les résultats obtenus suggèrent que les techniques de récolte chez R. groenlandicum devraient exclure les nouvelles pousses, leur exploitation causant une forte mortalité. Par ailleurs, chez S. purpurea, la récolte de 20 % des individus semble peu dommageable, mais critique lorsque plus de 50 % des plants sont récoltés. Un modèle démographique pour S. purpurea a aussi été construit à partir des observations de terrain. Ce modèle a permis de réaliser des projections temporelles en variant les taux de récoltes ainsi que les intervalles entre les récoltes. Les résultats indiquent qu’une récolte de 20 % des individus est acceptable une fois tous les 20 ans. Pour une récolte plus régulière, 5 % tous les trois ans serait soutenable. Mon projet permettra d’assurer une exploitation soutenable de deux plantes médicinales ayant un grand potentiel pour le traitement du diabète de type II.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Cette thèse s’applique à rendre compte de la manière dont des tensions s’incarnent et s’expriment dans les activités quotidiennes d’une organisation humanitaire, Médecins sans frontières. Pour ce faire, nous faisons appel à une approche dite « constitutive » de la communication, approche qui vise à montrer que les tensions organisationnelles que vivent les intervenants humanitaires dans leur travail peuvent s’analyser à partir des figures qui animent leurs conversations et leurs activités de tous les jours. Par tension, nous entendons l’expérience d’une incompatibilité, antinomie ou opposition vécue ou perçue entre deux ou plusieurs logiques d’action, tandis que la notion de figure renvoie à ce qui anime ces mêmes logiques d’action, soit toute préoccupation, valeur ou intérêt au nom desquels un acteur s’exprime ou agit. Dans cette thèse, nous avons ainsi identifié puis analysé, grâce à une approche d’inspiration ethnographique, cinq figures, trois tensions et trois « scènes communicationnelles » qui, selon nous, illustrent d’une manière fidèle les activités humanitaires de MSF. La présente thèse se veut donc une démonstration empirique, via les pratiques communicationnelles des acteurs, de ces figures et tensions à gérer au quotidien, comblant du coup certaines lacunes dans la littérature portant sur les tensions organisationnelles et l’aide humanitaire. Ces lacunes s’articulent principalement autour d’un manque d’intérêt pour, d’une part, la réalité des pratiques des acteurs en tant que telles, et, d’autre part, l’application d’une vision de la communication proprement constitutive de l’organisation, c’est-à-dire une vision qui reflèterait et exprimerait ce qui anime ses principaux acteurs au quotidien. Comme nous le montrons, ce qui semble animer ou préoccuper MSF (et ses acteurs), ce sont, d’une part, certains principes ou valeurs tels l’indépendance de pratique, la neutralité ou encore l’expérience et le scrupule. Ces idéaux, que les volontaires de MSF cultivent dans leurs conversations et leurs activités, sont donc constamment pris en considération lors de la mise sur pied et la réalisation des missions de cette célèbre organisation. D’autre part, une autre source d’animation se retrouve aussi au niveau des lieux et environnements complexes dans lesquels les soins médicaux sont prodigués aux populations en danger. Au final, et grâce à l’approche communicationnelle mise à profit dans cette thèse, il nous a été possible de dresser un portrait réaliste de ces mêmes pratiques - les « sources » de ce qui les anime -, reflétant à la fois le mode d’être et d’agir de MSF, dans toutes ses intensités et toutes ses tensions.
Resumo:
Outre ses effets sur le système visuel classique permettant la formation des images, la lumière agit sur plusieurs fonctions « non-visuelles ». Celles-ci incluent la constriction pupillaire, la température corporelle, la sécrétion hormonale, le cycle veille-sommeil, la vigilance et les performances cognitives. Les fonctions non-visuelles sont préférentiellement sensibles aux lumières à longueurs d’ondes courtes (lumière bleue) en comparaison aux longueurs d’ondes plus longues (lumière verte). Il est proposé que le vieillissement s’accompagne d’une diminution de la sensibilité des fonctions non-visuelles à la lumière. Cette recherche vise à évaluer les effets de l’âge sur la constriction pupillaire et la sensibilité cérébrale à la lumière lors de l’exécution de tâche cognitive. Deux groupes de sujets, 16 jeunes (18-30 ans) et 14 âgés (55-70 ans), ont suivis un protocole de pupillométrie visant à mesurer la dynamique pupillaire lors d’exposition à des lumières bleues et vertes monochromatiques de trois intensités différentes. Les résultats ont montré davantage de constriction en bleu qu’en vert et des effets plus importants suivant l’augmentation de l’intensité lumineuse. Nos résultats ne montrent cependant pas de différence d’âge sur la constriction pupillaire à la lumière suggérant la préservation de cette réponse non-visuelle. Dans un deuxième temps, les mêmes sujets ont exécuté une tâche cognitive en imagerie par résonance magnétique fonctionnelle (IRMf) tandis qu’ils étaient maintenus dans la noirceur, ou exposés à des lumières bleues. Les résultats ont montré une diminution des effets de la lumière avec l’âge dans le thalamus, l’amygdale, l’insula et l’aire ventrale tegmentale, régions engagées dans la vigilance, l’attention et les processus émotionnels. Les modifications qui s’opèrent sur les différentes fonctions non-visuelles avec l’âge ne semblent pas homogènes. Ces résultats corroborent les évidences animales qui montrent différents seuils de sensibilités à la lumière et la présence de réseaux neuronaux partiellement indépendants pour les diverses réponses non-visuelles. De plus, ils sont les premiers à démontrer que les effets neuronaux stimulants de la lumière bleue sur la cognition sont diminués avec l’âge. Les recherches devront évaluer si cette diminution de sensibilité influence les performances cognitives au cours du vieillissement. Enfin, un raffinement de nos connaissances permettra de mieux adapter l’environnement lumineux avec l’âge.
Resumo:
Cette thèse de doctorat présente les résultats d'un relevé spectropolarimétrique visant la détection directe de champs magnétiques dans le vent d'étoiles Wolf-Rayet (WR). Les observations furent entièrement obtenues à partir du spectropolarimètre ESPaDOnS, installé sur le télescope de l'observatoire Canada-France-Hawaii. Ce projet débuta par l'observation d'un étoile très variable de type WN4 appelée EZ CMa = WR6 = HD 50896 et se poursuivit par l'observation de 11 autres étoiles WR de notre galaxie. La méthode analytique utilisée dans cette étude vise à examiner les spectres de polarisation circulaire (Stokes V) et à identifier, au travers des raies d'émission, les signatures spectrales engendrées par la présence de champs magnétiques de type split monopole dans les vents des étoiles observées. Afin de pallier à la présence de polarisation linéaire dans les données de polarisation circulaire, le cross-talk entre les spectres Stokes Q et U et le spectre Stokes V fut modélisé et éliminé avant de procéder à l'analyse magnétique. En somme, aucun champ magnétique n'est détecté de manière significative dans les 12 étoiles observées. Toutefois, une détection marginale est signalée pour les étoiles WR134, WR137 et WR138 puisque quelques-unes de leur raies spectrales semblent indiquer la présence d'une signature magnétique. Pour chacune de ces trois étoiles, la valeur la plus probable du champ magnétique présent dans le vent stellaire est respectivement de B ~ 200, 130 et 80 G. En ce qui concerne les autres étoiles pour lesquelles aucune détection magnétique ne fut obtenue, la limite supérieure moyenne de l'intensité du champ qui pourrait être présent dans les données, sans toutefois être détecté, est évaluée à 500 G. Finalement, les résultats de cette étude ne peuvent confirmer l'origine magnétique des régions d'interaction en co-rotation (CIR) observées chez plusieurs étoiles WR. En effet, aucun champ magnétique n'est détecté de façon convaincante chez les quatre étoiles pour lesquelles la présence de CIR est soupçonnée.
Resumo:
En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 .