19 resultados para mathematical resolution
Resumo:
SSHRC
Resumo:
Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Ordered conflict resolution: understanding her tenets cost Keynes his life and Arrow to live under extortionate threat. Now that the Supreme Court of the United States has conquered the Informal Capital Market Cartel’s stranglehold on academic freedom, the literature can now vindicate impossibility- resolved social choice theory in the venue of a marriage between ethics and economics; as Sen has pled need be the case. This paper introduces ordered conflict resolution and her two impossibility-resolving axioms in effecting (individual: societal) well-being transitivity.
Resumo:
Ordered conflict resolution: understanding her tenets cost Keynes his life and Arrow to live under extortionate threat. Now that the Supreme Court of the United States has conquered the Informal Capital Market Cartel’s stranglehold on academic freedom, the literature can now vindicate impossibility- resolved social choice theory in the venue of a marriage between ethics and economics; as Sen has pled need be the case. This paper introduces ordered conflict resolution and her two impossibility-resolving axioms in effecting (individual: societal) well-being transitivity.
Resumo:
Le Programme de formation de l’école québécoise situe l’élève au cœur de ses apprentissages. L’enseignant peut faciliter le développement des compétences en offrant une rétroaction permettant à l’élève de progresser dans ses apprentissages. Il est difficile pour les enseignants de faire des annotations pertinentes et efficaces en mathématique, car l’accent est mis sur le concept travaillé et non sur la démarche mathématique. C’est pourquoi, nous avons porté notre regard sur l’incidence que peut avoir l’enseignement explicite des stratégies ainsi que sur les annotations faites par l’enseignant sur les copies des élèves en ce qui a trait au développement de leurs compétences à résoudre des problèmes complexes en mathématique. Nous avons opté pour une recherche qualitative et collaborative pour vivre un échange avec l’enseignant et vivre une interinfluence entre le praticien et le chercheur. La qualité des sujets a été favorisée. La technique d’échantillonnage retenue pour le choix de l’enseignant a été celle de cas exemplaires, tandis que celle que nous avons choisie pour les élèves était l’échantillonnage intentionnel critérié. La recherche a duré du mois de novembre au mois de mai de l’année scolaire 2008-2009. Comme instruments de cueillette de données, nous avons opté pour des entrevues avec l’enseignant et des mini-entrevues avec les élèves à deux moments de la recherche. Nous avons consulté les travaux corrigés des élèves dans leur portfolio. Notre étude fait ressortir l’apport de l’enseignement stratégique de la démarche mathématique. Les résultats précisent que les annotations de type méthodologique ont été celles qui ont été les plus utilisées et ont permis une meilleure compréhension chez l’élève. De plus, elles favorisent le transfert d’une situation à l’autre et permettent à l’élève d’obtenir de meilleurs résultats.
Resumo:
Thèse réalisée en cotutelle avec l'Université d'Avignon.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.
Resumo:
L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."
Resumo:
Ce texte traite de l’évolution des modes alternatifs de résolution de conflit (MARC) en ligne. L’auteur dresse un historique des différents projets de médiation en ligne en passant par ses « débuts » en 1999 lorsque l’Online Ombuds Office (OOO) fut approché pour l’élaboration d’un système de médiation pour les clients d’eBay, par SquareTrade.com, par les règles de l’ICANN, par Cybersettle et Clicknsettle, etc. Il expose ensuite le courrant que prendra la cybermédiation et le cyberarbitrage dans les années à venir. Ainsi, le médium informatique devient lentement une « quatrième partie » aux discussions et peut venir en aide aux arbitres et aux médiateurs dans la gestion et la communication d’informations. De plus les fonctions d’affichages propres aux ordinateurs, c’est-à-dire la possibilité d’incorporer images, graphiques, plans, etc., devront être mis à l’œuvre par les systèmes de MARC en ligne si ceux-ci sont destinés à prendre de l’expansion dans d’autres domaines que ceux leur étant présentement réservés.