997 resultados para Form Faktoren des Protons, Zeitartige Bereich, PANDA, Transition Distribution Amplituden
Resumo:
Cet essai s’intéresse à l’autonomie des jeunes adultes ayant un handicap moteur, physique, sensoriel ou intellectuel et qui ont participé à la démarche de la transition de l’école à la vie active (TÉVA). L’objectif de l’essai est de répertorier les manifestations d’autodétermination dans leur vie professionnelle, scolaire et personnelle. Le contenu des 23 entrevues conduites auprès d’élèves ayant participé à la TÉVA ou de leurs proches dans le cadre d’une étude de Bourdon et Lessard (2015) portant sur la modélisation de la démarche TÉVA en Estrie a été analysé afin d’en extraire les manifestations d’autodétermination. L’analyse thématique des entrevues a permis d’identifier des manifestations d’autodétermination issues d’une régulation externe, d’une régulation introjectée et d’une régulation identifiée. Les résultats obtenus révèlent que les jeunes adultes ayant participé à la TÉVA semblent avoir une bonne connaissance d’eux-mêmes, de leurs intérêts scolaires et professionnels. En contrepartie, le sentiment de compétence, la fierté personnelle et la connaissance des actions à poser pour atteindre leurs objectifs semblent se présenter moins fréquemment en termes de manifestation d’autodétermination chez les jeunes adultes de l’échantillon. Dans peu de cas, les élèves ont rapporté avoir entamé de leur propre chef des démarches pour obtenir un milieu de stage pour lequel ils entretenaient de l’intérêt. L'analyse des entrevues a également révélé que la conseillère ou le conseiller d'orientation ne semble pas être une professionnelle ou un professionnel particulièrement sollicité pour soutenir les élèves en difficulté dans l'élaboration d'un projet professionnel. Bien que l’implication de la famille et du milieu scolaire des jeunes à propos de la transition à la vie adulte et de l’élaboration de projets soit sans aucun doute essentielle, les compétences du conseiller d’orientation en matière d’accompagnement des élèves dans l’élaboration et la mise en œuvre d’un projet scolaire ou professionnel pourraient être également mises à profit pour mieux préparer et accompagner les jeunes adultes dans leur transition. Ainsi, les données analysées dans le cadre de cet essai indiquent qu’il y a une place à prendre pour les conseillers d’orientation dans le soutien des élèves vivant avec un handicap.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
OBJETIVO: Identificar áreas de vulnerabilidade para os casos novos de co-infecção HIV/tuberculose (TB). MÉTODOS: Estudo descritivo ecológico realizado por meio do georreferenciamento dos casos novos de HIV/TB notificados em Ribeirão Preto, SP, em 2006. Os dados foram obtidos do sistema de informação estadual paulista de notificação de TB. Os casos novos de co-infecção HIV/TB foram analisados conforme características sociodemográficas e clínicas e, posteriormente, georreferenciados na base cartográfica do município segundo endereço residencial. Os setores do município foram categorizados em três níveis socioeconômicos: inferior, intermediário e superior, com base na análise de componentes principais das variáveis do censo demográfico de 2000 (renda, instrução e percentagem de domicílios com cinco ou mais moradores). Foi calculada a incidência da co-infecção HIV/TB para cada nível socioeconômico. RESULTADOS: A co-infecção HIV/TB acometeu mais adultos do sexo masculino em idade economicamente ativa e a forma pulmonar da TB foi a mais comum. A distribuição espacial mostrou que as incidências nas áreas com níveis socioeconômicos intermediários e inferiores (8,3 e 11,5 casos por 100 mil habitantes, respectivamente) foram superiores àquela (4,8 casos por 100 mil habitantes) de nível socioeconômico superior. CONCLUSÕES: A taxa de incidência de co-infecção HIV/TB analisada por níveis socioeconômicos mostrou padraÞo espacial de distribuiçaÞo não homogêneo e apresentou valores mais altos em áreas de maior vulnerabilidade social. O estudo diagnosticou aìreas geograìficas prioritaìrias para o controle da co-infecção e a tecnologia do sistema de informação geográfica pode ser empregada no planejamento das ações em saúde pelos gestores municipais.
Resumo:
Prepro-RFRP-containing neurons have recently been described in the mammalian brain. These neurons are only found in the tuberal hypothalamus. In this work, we have provided a detailed analysis of the distribution of cells expressing the RFRP mRNA, and found them in seven anatomical structures of the tuberal hypothalamus. No co-expression with melanin-concentrating hormone (MCH) or hypocretin (Hcrt), that are also described in neurons of the tuberal hypothalamus, was observed. Using the BrdU method, we found that all RFRP cell bodies are generated between E13 and E14. Thus, RFRP neurons form a specific cell population with a complex distribution pattern in the tuberal hypothalamus. However, they are generated in one peak. These observations are discussed with data concerning the distribution and genesis of the MCH and Hcrt cell populations that are also distributed in the tuberal hypothalamus.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Understanding the distribution and composition of species assemblages and being able to predict them in space and time are highly important tasks io investigate the fate of biodiversity in the current global changes context. Species distribution models are tools that have proven useful to predict the potential distribution of species by relating their occurrences to environmental variables. Species assemblages can then be predicted by combining the prediction of individual species models. In the first part of my thesis, I tested the importance of new environmental predictors to improve species distribution prediction. I showed that edaphic variables, above all soil pH and nitrogen content could be important in species distribution models. In a second chapter, I tested the influence of different resolution of predictors on the predictive ability of species distribution models. I showed that fine resolution predictors could ameliorate the models for some species by giving a better estimation of the micro-topographic condition that species tolerate, but that fine resolution predictors for climatic factors still need to be ameliorated. The second goal of my thesis was to test the ability of empirical models to predict species assemblages' characteristics such as species richness or functional attributes. I showed that species richness could be modelled efficiently and that the resulting prediction gave a more realistic estimate of the number of species than when obtaining it by stacking outputs of single species distribution models. Regarding the prediction of functional characteristics (plant height, leaf surface, seed mass) of plant assemblages, mean and extreme values of functional traits were better predictable than indices reflecting the diversity of traits in the community. This approach proved interesting to understand which environmental conditions influence particular aspects of the vegetation functioning. It could also be useful to predict climate change impacts on the vegetation. In the last part of my thesis, I studied the capacity of stacked species distribution models to predict the plant assemblages. I showed that this method tended to over-predict the number of species and that the composition of the community was not predicted exactly either. Finally, I combined the results of macro- ecological models obtained in the preceding chapters with stacked species distribution models and showed that this approach reduced significantly the number of species predicted and that the prediction of the composition is also ameliorated in some cases. These results showed that this method is promising. It needs now to be tested on further data sets. - Comprendre la manière dont les plantes se répartissent dans l'environnement et s'organisent en communauté est une question primordiale dans le contexte actuel de changements globaux. Cette connaissance peut nous aider à sauvegarder la diversité des espèces et les écosystèmes. Des méthodes statistiques nous permettent de prédire la distribution des espèces de plantes dans l'espace géographique et dans le temps. Ces modèles de distribution d'espèces, relient les occurrences d'une espèce avec des variables environnementales pour décrire sa distribution potentielle. Cette méthode a fait ses preuves pour ce qui est de la prédiction d'espèces individuelles. Plus récemment plusieurs tentatives de cumul de modèles d'espèces individuelles ont été réalisées afin de prédire la composition des communautés végétales. Le premier objectif de mon travail est d'améliorer les modèles de distribution en testant l'importance de nouvelles variables prédictives. Parmi différentes variables édaphiques, le pH et la teneur en azote du sol se sont avérés des facteurs non négligeables pour prédire la distribution des plantes. Je démontre aussi dans un second chapitre que les prédicteurs environnementaux à fine résolution permettent de refléter les conditions micro-topographiques subies par les plantes mais qu'ils doivent encore être améliorés avant de pouvoir être employés de manière efficace dans les modèles. Le deuxième objectif de ce travail consistait à étudier le développement de modèles prédictifs pour des attributs des communautés végétales tels que, par exemple, la richesse en espèces rencontrée à chaque point. Je démontre qu'il est possible de prédire par ce biais des valeurs de richesse spécifiques plus réalistes qu'en sommant les prédictions obtenues précédemment pour des espèces individuelles. J'ai également prédit dans l'espace et dans le temps des caractéristiques de la végétation telles que sa hauteur moyenne, minimale et maximale. Cette approche peut être utile pour comprendre quels facteurs environnementaux promeuvent différents types de végétation ainsi que pour évaluer les changements à attendre au niveau de la végétation dans le futur sous différents régimes de changements climatiques. Dans une troisième partie de ma thèse, j'ai exploré la possibilité de prédire les assemblages de plantes premièrement en cumulant les prédictions obtenues à partir de modèles individuels pour chaque espèce. Cette méthode a le défaut de prédire trop d'espèces par rapport à ce qui est observé en réalité. J'ai finalement employé le modèle de richesse en espèce développé précédemment pour contraindre les résultats du modèle d'assemblage de plantes. Cela a permis l'amélioration des modèles en réduisant la sur-prédiction et en améliorant la prédiction de la composition en espèces. Cette méthode semble prometteuse mais de nouveaux tests sont nécessaires pour bien évaluer ses capacités.
Resumo:
Les écosystèmes fournissent de nombreuses ressources et services écologiques qui sont utiles à la population humaine. La biodiversité est une composante essentielle des écosystèmes et maintient de nombreux services. Afin d'assurer la permanence des services écosystémiques, des mesures doivent être prises pour conserver la biodiversité. Dans ce but, l'acquisition d'informations détaillées sur la distribution de la biodiversité dans l'espace est essentielle. Les modèles de distribution d'espèces (SDMs) sont des modèles empiriques qui mettent en lien des observations de terrain (présences ou absences d'une espèce) avec des descripteurs de l'environnement, selon des courbes de réponses statistiques qui décrive la niche réalisée des espèces. Ces modèles fournissent des projections spatiales indiquant les lieux les plus favorables pour les espèces considérées. Le principal objectif de cette thèse est de fournir des projections plus réalistes de la distribution des espèces et des communautés en montagne pour le climat présent et futur en considérant non-seulement des variables abiotiques mais aussi biotiques. Les régions de montagne et l'écosystème alpin sont très sensibles aux changements globaux et en même temps assurent de nombreux services écosystémiques. Cette thèse est séparée en trois parties : (i) fournir une meilleure compréhension du rôle des interactions biotiques dans la distribution des espèces et l'assemblage des communautés en montagne (ouest des Alpes Suisses), (ii) permettre le développement d'une nouvelle approche pour modéliser la distribution spatiale de la biodiversité, (iii) fournir des projections plus réalistes de la distribution future des espèces ainsi que de la composition des communautés. En me focalisant sur les papillons, bourdons et plantes vasculaires, j'ai détecté des interactions biotiques importantes qui lient les espèces entre elles. J'ai également identifié la signature du filtre de l'environnement sur les communautés en haute altitude confirmant l'utilité des SDMs pour reproduire ce type de processus. A partir de ces études, j'ai contribué à l'amélioration méthodologique des SDMs dans le but de prédire les communautés en incluant les interactions biotiques et également les processus non-déterministes par une approche probabiliste. Cette approche permet de prédire non-seulement la distribution d'espèces individuelles, mais également celle de communautés dans leur entier en empilant les projections (S-SDMs). Finalement, j'ai utilisé cet outil pour prédire la distribution d'espèces et de communautés dans le passé et le futur. En particulier, j'ai modélisé la migration post-glaciaire de Trollius europaeus qui est à l'origine de la structure génétique intra-spécifique chez cette espèce et évalué les risques de perte face au changement climatique. Finalement, j'ai simulé la distribution des communautés de bourdons pour le 21e siècle afin d'évaluer les changements probables dans ce groupe important de pollinisateurs. La diversité fonctionnelle des bourdons va être altérée par la perte d'espèces spécialistes de haute altitude et ceci va influencer la pollinisation des plantes en haute altitude. - Ecosystems provide a multitude of resources and ecological services, which are useful to human. Biodiversity is an essential component of those ecosystems and guarantee many services. To assure the permanence of ecosystem services for future generation, measure should be applied to conserve biodiversity. For this purpose, the acquisition of detailed information on how biodiversity implicated in ecosystem function is distributed in space is essential. Species distribution models (SDMs) are empirical models relating field observations to environmental predictors based on statistically-derived response surfaces that fit the realized niche. These models result in spatial predictions indicating locations of the most suitable environment for the species and may potentially be applied to predict composition of communities and their functional properties. The main objective of this thesis was to provide more accurate projections of species and communities distribution under current and future climate in mountains by considering not solely abiotic but also biotic drivers of species distribution. Mountain areas and alpine ecosystems are considered as particularly sensitive to global changes and are also sources of essential ecosystem services. This thesis had three main goals: (i) a better ecological understanding of biotic interactions and how they shape the distribution of species and communities, (ii) the development of a novel approach to the spatial modeling of biodiversity, that can account for biotic interactions, and (iii) ecologically more realistic projections of future species distributions, of future composition and structure of communities. Focusing on butterfly and bumblebees in interaction with the vegetation, I detected important biotic interactions for species distribution and community composition of both plant and insects along environmental gradients. I identified the signature of environmental filtering processes at high elevation confirming the suitability of SDMs for reproducing patterns of filtering. Using those case-studies, I improved SDMs by incorporating biotic interaction and accounting for non-deterministic processes and uncertainty using a probabilistic based approach. I used improved modeling to forecast the distribution of species through the past and future climate changes. SDMs hindcasting allowed a better understanding of the spatial range dynamic of Trollius europaeus in Europe at the origin of the species intra-specific genetic diversity and identified the risk of loss of this genetic diversity caused by climate change. By simulating the future distribution of all bumblebee species in the western Swiss Alps under nine climate change scenarios for the 21st century, I found that the functional diversity of this pollinator guild will be largely affected by climate change through the loss of high elevation specialists. In turn, this will have important consequences on alpine plant pollination.
Resumo:
Contact aureoles provide an excellent geologic environment to study the mechanisms of metamorphic reactions in a natural system. The Torres del Paine (TP) intrusion is one of the most spectacular natural laboratories because of its excellent outcrop conditions. It formed in a period from 12.59 to 12.43 Ma and consists of three large granite and four smaller mafic batches. The oldest granite is on top, the youngest at the bottom of the granitic complex, and the granites overly the mafic laccolith. The TP intruded at a depth of 2-3 km into regional metamorphic anchizone to greenschist facies pelites, sandstones, and conglomerates of the Cerro Toro and Punta Barrosa formations. It formed a thin contact aureole of 150-400 m width. This thesis focuses on the reaction kinetics of the mineral cordierite in the contact aureole using quantitative textural analysis methods. First cordierite was formed from chlorite break¬down (zone I, ca. 480 °C, 750 bar). The second cordierite forming reaction was the muscovite break-down, which is accompanied by a modal decrease in biotite and the appearance of k- feldspar (zone II, 540-550 °C, 750 bar). Crystal sizes of the roundish, poikiloblastic cordierites were determined from microscope thin section images by manually marking each crystal. Images were then automatically processed with Matlab. The correction for the intersection probability of each crystal radius yields the crystal size distribution in the rock. Samples from zone I below the laccolith have the largest crystals (0.09 mm). Cordierites from zone II are smaller, with a maximum crystal radius of 0.057 mm. Rocks from zone II have a larger number of small cordierite crystals than rocks from zone I. A combination of these quantitative analysis with numerical modeling of nucleation and growth, is used to infer nucleation and growth parameters which are responsible for the observed mineral textures. For this, the temperature-time paths of the samples need to be known. The thermal history is complex because the main body of the intrusion was formed by several intrusive batches. The emplacement mechanism and duration of each batch can influence the thermal structure in the aureole. A possible subdivision of batches in smaller increments, so called pulses, will focus heat at the side of the intrusion. Focusing all pulses on one side increases the contact aureole size on that side, but decreases it on the other side. It forms a strongly asymmetric contact aureole. Detailed modeling shows that the relative thicknesses of the TP contact aureole above and below the intrusion (150 and 400 m) are best explained by a rapid emplacement of at least the oldest granite batch. Nevertheless, temperatures are significantly too low in all models, compared to observed mineral assemblages in the hornfelses. Hence, an other important thermal mechanisms needs to take place in the host rock. Clastic minerals in the immature sediments outside the contact aureole are hydrated due to small amounts of expelled fluids during contact metamorphism. This leads to a temperature increase of up to 50 °C. The origin of fluids can be traced by stable isotopes. Whole rock stable isotope data (6D and δ180) and chlorine concentrations in biotite document that the TP intrusion induced only very small amounts of fluid flow. Oxygen whole rock data show δ180 values between 9.0 and 10.0 %o within the first 5 m of the contact. Values increase to 13.0 - 15.0 %o further away from the intrusion. Whole rock 6D values display a more complex zoning. First, host rock values (-90 to -70 %o) smoothly decrease towards the contact by ca. 20 %o, up to a distance of ca. 150 m. This is followed by an increase of ca. 20 %o within the innermost 150 m of the aureole (-97.0 to -78 %o at the contact). The initial decrease in 6D values is interpreted to be due to Rayleigh fractionation accompanying the dehydration reactions forming cordierite, while the final increase reflects infiltration of water-rich fluids from the intrusion. An over-estimate on the quantity and the corresponding thermal effect yields a temperature increase of less than 30 °C. This suggests that fluid flow might have contributed only for a small amount to the thermal evolution of the system. A combination of the numerical growth model with the thermal model, including the hydration reaction enthalpies but neglecting fluid flow and incremental growth, can be used to numerically reproduce the observed cordierite textures in the contact aureole. This yields kinetic parameters which indicate fast cordierite crystallization before the thermal peak in the inner aureole, and continued reaction after the thermal peak in the outermost aureole. Only small temperature dependencies of the kinetic parameters seem to be needed to explain the obtained crystal size data. - Les auréoles de contact offrent un cadre géologique privilégié pour l'étude des mécanismes de réactions métamorphiques associés à la mise en place de magmas dans la croûte terrestre. Par ses conditions d'affleurements excellentes, l'intrusion de Torres del Paine représente un site exceptionnel pour améliorer nos connaissances de ces processus. La formation de cette intrusion composée de trois injections granitiques principales et de quatre injections mafiques de volume inférieur couvre une période allant de 12.50 à 12.43 Ma. Le plus vieux granite forme la partie sommitale de l'intrusion alors que l'injection la plus jeune s'observe à la base du complexe granitique; les granites recouvrent la partie mafique du laccolite. L'intrusion du Torres del Paine s'est mise en place a 2-3 km de profondeur dans un encaissant métamorphique. Cet encaissant est caractérisé par un métamorphisme régional de faciès anchizonal à schiste vert et est composé de pélites, de grès, et des conglomérats des formations du Cerro Toro et Punta Barrosa. La mise en place des différentes injections granitiques a généré une auréole de contact de 150-400 m d'épaisseur autour de l'intrusion. Cette thèse se concentre sur la cinétique de réaction associée à la formation de la cordiérite dans les auréoles de contact en utilisant des méthodes quantitatives d'analyses de texture. On observe plusieurs générations de cordiérite dans l'auréole de contact. La première cordiérite est formée par la décomposition de la chlorite (zone I, environ 480 °C, 750 bar), alors qu'une seconde génération de cordiérite est associée à la décomposition de la muscovite, laquelle est accompagnée par une diminution modale de la teneur en biotite et l'apparition de feldspath potassique (zone II, 540-550 °C, 750 bar). Les tailles des cristaux de cordiérites arrondies et blastic ont été déterminées en utilisant des images digitalisées des lames minces et en marquant individuellement chaque cristal. Les images sont ensuite traitées automatiquement à l'aide du programme Matlab. La correction de la probabilité d'intersection en fonction du rayon des cristaux permet de déterminer la distribution de la taille des cristaux dans la roche. Les échantillons de la zone I, en dessous du lacolite, sont caractérisés par de relativement grands cristaux (0.09 mm). Les cristaux de cordiérite de la zone II sont plus petits, avec un rayon maximal de 0.057 mm. Les roches de la zone II présentent un plus grand nombre de petits cristaux de cordiérite que les roches de la zone I. Une combinaison de ces analyses quantitatives avec un modèle numérique de nucléation et croissance a été utilisée pour déduire les paramètres de nucléation et croissance contrôlant les différentes textures minérales observées. Pour développer le modèle de nucléation et de croissance, il est nécessaire de connaître le chemin température - temps des échantillons. L'histoire thermique est complexe parce que l'intrusion est produite par plusieurs injections successives. En effet, le mécanisme d'emplace¬ment et la durée de chaque injection peuvent influencer la structure thermique dans l'auréole. Une subdivision des injections en plus petits incréments, appelés puises, permet de concentrer la chaleur dans les bords de l'intrusion. Une mise en place préférentielle de ces puises sur un côté de l'intrusion modifie l'apport thermique et influence la taille de l'auréole de contact produite, auréole qui devient asymétrique. Dans le cas de la première injection de granite, une modélisation détaillée montre que l'épaisseur relative de l'auréole de contact de Torres del Paine au-dessus et en dessous de l'intrusion (150 et 400 m) est mieux expliquée par un emplacement rapide du granite. Néanmoins, les températures calculées dans l'auréole de con¬tact sont trop basses pour que les modèles thermiques soient cohérants par rapport à la taille de cette auréole. Ainsi, un autre mecanisme exothermique est nécessaire pour permettre à la roche encais¬sante de produire les assemblages observés. L'observation des roches encaissantes entourant les granites montre que les minéraux clastiques dans les sédiments immatures au-dehors de l'auréole sont hydratés suite à la petite quantité de fluide expulsée durant le métamorphisme de contact et/ou la mise en place des granites. Les réactions d'hydratation peuvent permettre une augmentation de la température jusqu'à 50 °C. Afin de déterminer l'origine des fluides, une étude isotopique de roches de l'auréole de contact a été entreprise. Les isotopes stables d'oxygène et d'hydrogène sur la roche totale ainsi que la concentration en chlore dans la biotite indiquent que la mise en place des granites du Torres del Paine n'induit qu'une circulation de fluide limitée. Les données d'oxygène sur roche totale montrent des valeurs δ180 entre 9.0 et 10.0%o au sein des cinq premiers mètres du contact. Les valeurs augmentent jusqu'à 13.0 - 15.0 plus on s'éloigne de l'intrusion. Les valeurs 5D sur roche totale montrent une zonation plus complexe. Les valeurs de la roche encaissante (-90 à -70%o) diminuent progressivement d'environ 20%o depuis l'extérieur de l'auréole jusqu'à une distance d'environ 150 m du granite. Cette diminution est suivie par une augmentation d'environ 20%o au sein des 150 mètres les plus proches du contact (-97.0 à -78%o au contact). La diminution initiale des valeurs de 6D est interprétée comme la conséquence du fractionnement de Rayleigh qui accompagne les réactions de déshydratation formant la cordiérite, alors que l'augmentation finale reflète l'infiltration de fluide riche en eau venant de l'intrusion. A partir de ces résultats, le volume du fluide issu du granite ainsi que son effet thermique a pu être estimé. Ces résultats montrent que l'augmentation de température associée à ces fluides est limitée à un maximum de 30 °C. La contribution de ces fluides dans le bilan thermique est donc faible. Ces différents résultats nous ont permis de créer un modèle thermique associé à la for¬mation de l'auréole de contact qui intègre la mise en place rapide du granite et les réactions d'hydratation lors du métamorphisme. L'intégration de ce modèle thermique dans le modèle numérique de croissance minérale nous permet de calculer les textures des cordiérites. Cepen¬dant, ce modèle est dépendant de la vitesse de croissance et de nucléation de ces cordiérites. Nous avons obtenu ces paramètres en comparant les textures prédites par le modèle et les textures observées dans les roches de l'auréole de contact du Torres del Paine. Les paramètres cinétiques extraits du modèle optimisé indiquent une cristallisation rapide de la cordiérite avant le pic thermique dans la partie interne de l'auréole, et une réaction continue après le pic thermique dans la partie la plus externe de l'auréole. Seules de petites dépendances de température des paramètres de cinétique semblent être nécessaires pour expliquer les don¬nées obtenues sur la distribution des tailles de cristaux. Ces résultats apportent un éclairage nouveau sur la cinétique qui contrôle les réactions métamorphiques.
Resumo:
L'imagerie est de plus en plus utilisée en médecine forensique. Actuellement, les connaissances nécessaires pour interpréter les images post mortem sont faibles et surtout celles concernant les artéfacts post mortem. Le moyen radiologique le plus utilisé en médecine légale est la tomodensitométrie multi-coupes (TDMC). Un de ses avantages est la détection de gaz dans le corps. Cette technique est utile au diagnostic d'embolie gazeuse mais sa très grande sensibilité rend visible du gaz présent même en petite quantité. Les premières expériences montrent que presque tous les corps scannés présentent du gaz surtout dans le système vasculaire. Pour cette raison, le médecin légiste est confronté à un nouveau problème : la distinction entre du gaz d'origine post-mortem et une embolie gazeuse vraie. Pour parvenir à cette distinction, il est essentiel d'étudier la distribution de ces gaz en post mortem. Aucune étude systématique n'a encore été réalisée à ce jour sur ce sujet.¦Nous avons étudié l'incidence et la distribution des gaz présents en post mortem dans les vaisseaux, dans les os, dans les tissus sous-cutanés, dans l'espace sous-dural ainsi que dans les cavités crânienne, thoracique et abdominale (82 sites au total) de manière à identifier les facteurs qui pourraient distinguer le gaz post-mortem artéfactuel d'une embolie gazeuse¦Les données TDMC de 119 cadavres ont été étudiées rétrospectivement. Les critères d'inclusion des sujets sont l'absence de lésion corporelle permettant la contamination avec l'air extérieur, et, la documentation du délai entre le moment du décès et celui du CT-scan (p.ex. rapport de police, protocole de réanimation ou témoin). La présence de gaz a été évaluée semi-quantitativement par deux radiologues et codifiée. La codification est la suivante : grade 0 = pas de gaz, grade 1 = une à quelques bulles d'air, grade 2 = structure partiellement remplie d'air, grade 3 = structure complètement remplie d'air.¦Soixante-quatre des 119 cadavres présentent du gaz (62,2%), et 56 (75,7%) ont montré du gaz dans le coeur. Du gaz a été détecté le plus fréquemment dans le parenchyme hépatique (40%); le coeur droit (ventricule 38%, atrium 35%), la veine cave inférieure (infra-rénale 30%, supra-rénale 26%), les veines sus-hépatiques (gauche 26%, moyenne 29%, droite 22 %), et les espaces du porte (29%). Nous avons constaté qu'une grande quantité de gaz liée à la putréfaction présente dans le coeur droit (grade 3) est associée à des collections de gaz dans le parenchyme hépatique (sensibilité = 100%, spécificité = 89,7%). Pour décrire nos résultats, nous avons construit une séquence d'animation qui illustre le processus de putréfaction et l'apparition des gaz à la TDMC post-mortem.¦Cette étude est la première à montrer que l'apparition post-mortem des gaz suit un modèle de distribution spécifique. L'association entre la présence de gaz intracardiaque et dans le parenchyme hépatique pourrait permettre de distinguer du gaz artéfactuel d'origine post-mortem d'une embolie gazeuse vraie. Cette étude fournit une clé pour le diagnostic de la mort due à une embolie gazeuse cardiaque sur la base d'une TDMC post-mortem.¦Abstract¦Purpose: We investigated the incidence and distribution of post-mortem gas detected with multidetector computed tomography (MDCT) to identify factors that could distinguish artifactual gas from cardiac air embolism.¦Material and Methods: MDCT data of 119 cadavers were retrospectively examined. Gas was semiquantitatively assessed in selected blood vessels, organs and body spaces (82 total sites).¦Results: Seventy-four of the 119 cadavers displayed gas (62.2%; CI 95% 52.8 to 70.9), and 56 (75.7%) displayed gas in the heart. Most gas was detected in the hepatic parenchyma (40%); right heart (38% ventricle, 35% atrium), inferior vena cava (30% infrarenally, 26% suprarenally), hepatic veins (26% left, 29% middle, 22% right), and portal spaces (29%). Male cadavers displayed gas more frequently than female cadavers. Gas was detected 5-84 h after death; therefore, the post-mortem interval could not reliably predict gas distribution (rho=0.719, p<0.0001). We found that a large amount of putrefaction-generated gas in the right heart was associated with aggregated gas bubbles in the hepatic parenchyma (sensitivity = 100%, specificity = 89.7%). In contrast, gas in the left heart (sensitivity = 41.7%, specificity = 100%) or in peri-umbilical subcutaneous tissues (sensitivity = 50%, specificity = 96.3%) could not predict gas due to putrefaction.¦Conclusion: This study is the first to show that the appearance of post-mortem gas follows a specific distribution pattern. An association between intracardiac gas and hepatic parenchymal gas could distinguish between post- mortem-generated gas and vital air embolism. We propose that this finding provides a key for diagnosing death due to cardiac air embolism.
Resumo:
RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.
Resumo:
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.
Resumo:
Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.