685 resultados para Mesures expérimentales
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Nous présenterons le procédé de fabrication, la caractérisation, ainsi qu’un modèle numérique permettant l’optimisation d’un nouveau dispositif permettant d’effectuer des mesures de nanocalorimétrie sur un échantillon de silicium monocristallin. Ce dernier possède entre autre des propriétés thermiques nous permettant d’effectuer des mesures à des températures supérieures à 900 C, avec une résolution meilleure que 16 C. Ceci nous a permis d’étudier la dynamique des défauts induits par implantation ionique dans le silicium monocristallin. Deux comportements différents sont observés dans la germination de la phase amorphe induite par implantation à 10 et 80 keV. Ces résultats ont été confrontés à des simulations Monte-Carlo basées sur le modèle des paires lacunesinterstitiels. La comparaison entre les simulations et les mesures expérimentales ont montré que ce modèle est incomplet car il ne reproduit qualitativement que certaines caractéristiques observées expérimentalement. Des mesures réalisées à partir de -110 C dans le silicium monocristallin et amorphisé implanté avec des ions légers, ont mis en évidence des différences claires entre la relaxation dans le silicium amorphe et le recuit des défauts dans le silicium monocristallin. Deux processus à des énergies d’activation de 0.48 et 0.6 eV ont été observés pour les implantations réalisées dans le silicium monocristallin tandis qu’un relâchement de chaleur uniforme ne révélant qu’un spectre continu d’énergie d’activation a été observé dans le silicium amorphe.
Resumo:
La nature des acides dans un environnement aqueux est primordiale dans de nombreux aspects de la chimie et de la biologie. La caractéristique principale d'un acide est sa capacité à transférer un proton vers une molécule d'eau ou vers n'importe quelle base, mais ce procédé n'est pas aussi simple qu'il y paraît. Il peut au contraire être extrêmement complexe et dépendre de manière cruciale de la solvatation des différents intermédiaires de réaction impliqués. Cette thèse décrit les études computationnelles basées sur des simulations de dynamique moléculaire ab initio qui ont pour but d'obtenir une description à l'échelle moléculaire des divers procédés de transferts de proton entre acide et bases dans un milieu aqueux. Pour cela, nous avons étudié une serie de système, dont l'acide hydrofluorique aqueux, l'acide trifluoroacétique aqueux, et un système modèle constitué d'un phénol et d'une entité carboxylate reliés entre eux par une molécule d'eau en solution aqueuse. Deux états intermédiaires ont été identifiés pour le transfert d'un proton depuis un acide. Ces intermédiaires apparaissent stabilisés par un motif local de solvatation via des ponts H. Leurs signatures spectroscopiques ont été caractérisées au moyen de la spectroscopie infrarouge, en utilisant le formalisme de la dynamique moléculaire ab initio, qui inclut l'effet quantique nucléaire de manière explicite. Cette étude a aussi identifié trois chemins de réaction élémentaire, qui sont responsable pour le transfert d'un proton d'un acide à une base, ainsi que leurs échelles de temps caractéristiques. Les conclusions tirées de ces études sont discutées dans les détails, au niveau moléculaire, avec une emphase sur les comparaisons entre les résultats théoriques et les mesures expérimentales obtenues dans a littérature ou via des collaborateurs.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
Malgré une vaste littérature concernant les propriétés structurelles, électroniques et ther- modynamiques du silicium amorphe (a-Si), la structure microscopique de ce semi-cond- ucteur covalent échappe jusqu’à ce jour à une description exacte. Plusieurs questions demeurent en suspens, concernant par exemple la façon dont le désordre est distribué à travers la matrice amorphe : uniformément ou au sein de petites régions hautement déformées ? D’autre part, comment ce matériau relaxe-t-il : par des changements homo- gènes augmentant l’ordre à moyenne portée, par l’annihilation de défauts ponctuels ou par une combinaison de ces phénomènes ? Le premier article présenté dans ce mémoire propose une caractérisation des défauts de coordination, en terme de leur arrangement spatial et de leurs énergies de formation. De plus, les corrélations spatiales entre les défauts structurels sont examinées en se ba- sant sur un paramètre qui quantifie la probabilité que deux sites défectueux partagent un lien. Les géométries typiques associées aux atomes sous et sur-coordonnés sont extraites du modèle et décrites en utilisant les distributions partielles d’angles tétraédriques. L’in- fluence de la relaxation induite par le recuit sur les défauts structurels est également analysée. Le second article porte un regard sur la relation entre l’ordre à moyenne portée et la relaxation thermique. De récentes mesures expérimentales montrent que le silicium amorphe préparé par bombardement ionique, lorsque soumis à un recuit, subit des chan- gements structuraux qui laissent une signature dans la fonction de distribution radiale, et cela jusqu’à des distances correspondant à la troisième couche de voisins.[1, 2] Il n’est pas clair si ces changements sont une répercussion d’une augmentation de l’ordre à courte portée, ou s’ils sont réellement la manifestation d’un ordonnement parmi les angles dièdres, et cette section s’appuie sur des simulations numériques d’implantation ionique et de recuit, afin de répondre à cette question. D’autre part, les corrélations entre les angles tétraédriques et dièdres sont analysées à partir du modèle de a-Si.
Resumo:
Le vieillissement normal est souvent associé à des changements cognitifs négatifs, notamment sur les performances cognitives. Cependant, des changements comportementaux et cérébraux positifs ont aussi été observés. Ces modifications indiquent l’existence d’une plasticité cérébrale dans le vieillissement normal. Ainsi, plusieurs facteurs ont été étudiés afin de mieux connaitre les modulateurs de cette plasticité dite positive. La plupart des études évaluant ce phénomène ont utilisé la technique d’imagerie par résonance magnétique alors que la technique des potentiels évoqués a été beaucoup moins utilisée. Cette technique est basée sur les enregistrements de l’activité électrique cérébrale très sensible aux changements anatomiques associés au vieillissement et permet donc d’observer de manière précise les variations du décours temporel des ondes éléctrophysiologiques lors du traitement des informations. Les travaux de cette thèse visent à étudier les modifications de plasticité cérébrale induites par des facteurs protecteurs/préventifs du vieillissement normal et notamment lors de la réalisation de tâches impliquant le contrôle attentionnel, grâce à l’analyse de signaux électroencéphalographiques en potentiels évoqués. Dans un premier temps, une description de l’analyse des données EEG en potentiels évoqués sera fournie, suivie d’une revue de littérature sur le contrôle attentionnel et les facteurs de plasticité dans le vieillissement normal (Chapitre 1). Cette revue de littérature mettra en avant, d’une part la diminution des capacités de contrôle de l’attention dans le vieillissement et d’autre part, les facteurs protecteurs du vieillissement ainsi que la plasticité cérébrale qui leur est associée. Ces facteurs sont connus pour avoir un effet positif sur le déficit lié à l’âge. La première étude de ce projet (Chapitre 2) vise à définir l’effet d’un facteur de réserve cognitive, le niveau d’éducation, sur les composantes des potentiels évoqués chez les personnes âgées. Cette étude mettra en avant une composante des potentiels évoqués, la P200, comme indice de plasticité lorsqu’elle est liée au niveau d’éducation. Cet effet sera observé sur deux tâches expérimentales faisant intervenir des processus de contrôle attentionnel. De plus, une différence d’épaisseur corticale sera observée : les personnes âgées ayant un plus haut niveau d’éducation ont un cortex cingulaire antérieur plus épais. La deuxième étude (Chapitre 3) cherche à déterminer, chez les personnes âgées, les modifications comportementales et en potentiels évoqués induites par trois entraînements cognitifs, entrainements visant l’amélioration de processus attentionnels différents : l’attention focalisée, l’attention divisée, ainsi que la modulation de l’attention. Au niveau comportemental, les entraînements induisent tous une amélioration des performances. Cependant, l’entraînement en modulation de l’attention est le seul à induire une amélioration du contrôle attentionnel. Les résultats éléctrophysiologiques indiquent la N200 comme composante sensible à la plasticité cérébrale à la suite d’entraînements cognitifs. L’entraînement en modulation de l’attention est le seul à induire une modification de cette composante dans toutes les conditions des tests. Les résultats de ces études suggèrent que les facteurs protecteurs du vieillissement permettent des changements positifs observés en potentiels évoqués. En effet, nous mettons en évidence des phénomènes de plasticité cérébrale des personnes âgées qui diffèrent selon leurs origines. L’impact de ces résultats ainsi que les limites et perspectives futures seront présentés en fin de thèse (Chapitre 4).
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Rapport de recherche
Resumo:
Rapport de recherche
Resumo:
Article publié avec l'autorisation de la Chambre des notaires du Québec et dans le cadre des cours de perfectionnement du notariat.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"