21 resultados para Visualisation du code source

em Université Laval Mémoires et thèses électroniques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les problématiques de surplus de poids sont en augmentation depuis les dernières décennies, notamment chez les jeunes québécois. Cette augmentation est en lien avec des habitudes alimentaires présentant des différences importantes avec les recommandations nutritionnelles. De plus, le gouvernement provincial a instauré des changements importants au Programme de formation de l’école québécoise afin de stimuler l’adoption de saines habitudes de vie. Afin de contrer ces problématiques de surplus de poids et d’habitudes alimentaires déficientes et de poursuivre dans la lignée de la réforme scolaire, le Nutriathlon en équipe version Web a été développé. Ce programme a pour but d’amener chaque participant à améliorer la qualité de son alimentation en augmentant et en diversifiant sa consommation de légumes, de fruits et de produits laitiers. Les objectifs de la présente étude sont (1) d’évaluer l’impact du programme sur la consommation de légumes, de fruits (LF) et de produits laitiers (PL) d’élèves du secondaire et (2) d’évaluer les facteurs influençant la réussite du programme chez ces jeunes. Les résultats de l’étude ont démontré que pendant le programme ainsi qu’immédiatement après, le groupe intervention a rapporté une augmentation significative de la consommation de LF et de PL par rapport au groupe contrôle. Par contre, aucun effet n’a pu être observé à moyen terme. Quant aux facteurs facilitant le succès du Nutriathlon en équipe, les élèves ont mentionné : l’utilisation de la technologie pour la compilation des portions, la formation d’équipes, l’implication des enseignants et de l’entourage familial ainsi que la création de stratégies pour faciliter la réussite du programme. Les élèves ont également mentionné des barrières au succès du Nutriathlon en équipe telles que le manque d’assiduité à saisir leurs données en dehors des heures de classe, la dysfonction du code d’utilisateur et l’incompatibilité de la plateforme avec certains outils technologiques comme les tablettes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le 6 février 2015, la Cour suprême du Canada a rendu un jugement historique, unanime et anonyme. Dans l’arrêt Carter c. Canada (Procureur général), la Cour reconnaît que l’interdiction mur à mur de l’aide médicale à mourir porte atteinte aux droits constitutionnels de certaines personnes. En effet, les adultes capables devraient pouvoir demander l’aide d’un médecin pour mettre fin à leur vie s’ils respectent deux critères : consentir clairement et de façon éclairée à quitter ce monde et être affecté de problèmes de santé graves et irrémédiables leur causant des souffrances persistantes et intolérables. Or, cette décision constitue un renversement juridique, car un jugement inverse avait été rendu en 1993. En effet, vingt-deux ans auparavant, la Cour suprême avait jugé à cinq contre quatre que l’interdiction du suicide assisté était constitutionnelle. Dans l’arrêt Rodriguez c. Colombie-Britannique, la majorité avait statué que la protection du caractère sacré de la vie dans toute circonstance, tant pour les personnes vulnérables que pour les adultes capables, était une raison suffisante pour ne pas accorder de dérogation aux articles du Code criminel qui concernent le suicide assisté. Les juges majoritaires craignent alors que toute ouverture à l’aide au suicide entraine un élargissement progressif des critères d’admissibilité, ce que plusieurs appellent l’argument du « doigt dans l’engrenage ». Dans le cadre de ce mémoire, le renversement juridique Rodriguez-Carter sera analysé à la lumière du débat entre H. L. A. Hart et Ronald Dworkin. Alors que le premier défend une nouvelle version du positivisme modéré, le second offre une théorie nouvelle et innovatrice, nommée l’interprétativisme. L’objectif est simple : déterminer laquelle de ces deux théories explique le mieux le renversement juridique canadien concernant l’aide médicale à mourir. L’hypothèse initiale soutient que les deux théories pourront expliquer ledit renversement, mais que l’une le fera mieux que l’autre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente la découverte de nouveaux inhibiteurs de l’amidotransférase ARNt-dépendante (AdT), et résume les connaissances récentes sur la biosynthèse du Gln-ARNtGln et de l’Asn-ARNtAsn par la voie indirecte chez la bactérie Helicobacter pylori. Dans le cytoplasme des eucaryotes, vingt acides aminés sont liés à leur ARNt correspondant par vingt aminoacyl-ARNt synthétases (aaRSs). Ces enzymes sont très spécifiques, et leur fonction est importante pour le décodage correct du code génétique. Cependant, la plupart des bactéries, dont H. pylori, sont dépourvues d’asparaginyl-ARNt synthétase et/ou de glutaminyl-ARNt synthétase. Pour former le Gln-ARNtGln, H. pylori utilise une GluRS noncanonique nommée GluRS2 qui glutamyle spécifiquement l’ARNtGln ; ensuite, une AdT trimérique, la GatCAB corrige le Glu-ARNtGln mésapparié en le transamidant pour former le Gln-ARNtGln, qui lira correctement les codons glutamine pendant la biosynthèse des protéines sur les ribosomes. La formation de l’Asn-ARNtAsn est similaire à celle du Gln-ARNtGln, et utilise la même GatCAB et une AspRS non-discriminatrice. Depuis des années 2000, la GatCAB est considérée comme une cible prometteuse pour le développement de nouveaux antibiotiques, puisqu’elle est absente du cytoplasme de l’être humain, et qu’elle est encodée dans le génome de plusieurs bactéries pathogènes. Dans le chapitre 3, nous présentons la découverte par la technique du « phage display » de peptides cycliques riches en tryptophane et en proline, et qui inhibent l’activité de la GatCAB de H. pylori. Les peptides P10 (CMPVWKPDC) et P9 (CSAHNWPNC) inhibent cette enzyme de façon compétitive par rapport au substrat Glu-ARNtGln. Leur constante d’inhibition (Ki) est 126 μM pour P10, et 392 μM pour P9. Des modèles moléculaires ont montré qu’ils lient le site actif de la réaction de transmidation catalysée par la GatCAB, grâce à la formation d’une interaction π-π entre le résidu Trp de ces peptides et le résidu Tyr81 de la sous-unité GatB, comme fait le A76 3’-terminal de l’ARNt. Dans une autre étude concernant des petits composés contenant un groupe sulfone, et qui mimiquent l’intermédiaire de la réaction de transamidation, nous avons identifié des composés qui inhibent la GatCAB de H. pylori de façon compétitive par rapport au substrat Glu-ARNtGln. Cinq fois plus petits que les peptides cycliques mentionnés plus haut, ces composés inhibent l’activité de la GatCAB avec des Ki de 139 μM pour le composé 7, et de 214 μM pour le composé 4. Ces inhibiteurs de GatCAB pourraient être utiles pour des études mécanistiques, et pourraient être des molécules de base pour le développement de nouvelles classes d’antibiotiques contre des infections causées par H. pylori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent texte porte sur les règles régissant l’imputation des paiements dans le Code civil du Québec. Dans l’état actuel du droit, le droit de l’imputation des paiements est essentiellement traité à l’intérieur des ouvrages généraux portant sur le droit des obligations. Quant à la jurisprudence, celle-ci se présente comme étant confuse et de peu d’aide pour qui voudrait comprendre l’application de ces règles. L’objet de ce mémoire est donc de procéder avant tout à une analyse détaillée des articles 1569 à 1572 du Code civil du Québec. Nous expliciterons et expliquerons les termes de chacun de ces articles, nous démontrerons leur mécanisme propre et décrirons leurs applications et leurs limites. Nous procéderons également à une critique, parfois poussée, de ce qui a été écrit sur le sujet par la doctrine et la jurisprudence et nous nous questionnerons à l’occasion sur la rédaction même des dispositions actuelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis longtemps, le Soleil est vu comme une source renouvelable d’intérêt pour combler nos besoins en énergie. Or, le coût prohibitif de l’énergie solaire a jusqu’à maintenant rendu celle-ci peu utilisée. Pour accroître son adoption, il faut absolument rendre son coût concurrentiel avec celui des énergies fossiles. Pour cela, plusieurs possibilités existent. L’une d’elles est l’utilisation d’un système optique pour concentrer la lumière. Cette thèse présente donc une solution basée sur la conception d’un nouveau type de concentrateur solaire de basse-moyenne concentration fait de polymère dans le but de réduire son coût de fabrication. Les performances de ce système compact utilisant des microlentilles ont ensuite été améliorées par l’ajout d’un gradient d’indice de réfraction dans la matrice polymérique. Une analyse sommaire du coût de l’énergie produite par de tels dispositifs permet ensuite de conclure que les systèmes développés dans le cadre de ce projet de recherche ont un potentiel commercial. Pour cette raison, le concept le plus prometteur basé sur l’utilisation d’un gradient d’indice afin d’accroître les performances a fait état du dépôt d’une demande de brevet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La problématique liée au manque d’accès à la justice se pose dans toutes les régions du monde. Afin de résoudre celle-ci, l’Assemblée nationale du Québec a adopté, le 20 février 2014, le projet de loi 28, Loi instituant le nouveau Code de procédure civile, 1e sess, 40e lég. À cet égard, la disposition préliminaire indique que le nouveau Code de procédure civile (ci-après : « NCPC »), qui régit dorénavant la procédure applicable aux modes de prévention et de règlement des différends (ci-après : « modes de PRD »), vise à « assurer l’accessibilité, la qualité et la célérité de la justice civile […] ». Au-delà de ces mots, qui ont une grande valeur interprétative, ce mémoire analyse dans quelle mesure l’intégration des principes de la procédure applicables aux modes de PRD dans le NCPC est réellement susceptible d’améliorer l’accessibilité de la justice civile au Québec.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les déficits cognitifs sont centraux à la psychose et sont observables plusieurs années avant le premier épisode psychotique. L’atteinte de la mémoire épisodique est fréquemment identifiée comme une des plus sévères, tant chez les patients qu’avant l’apparition de la pathologie chez des populations à risque. Chez les patients psychotiques, l’étude neuropsychologique des processus mnésiques a permis de mieux comprendre l’origine de cette atteinte. Une altération des processus de mémoire de source qui permettent d’associer un souvenir à son origine a ainsi été identifiée et a été associée aux symptômes positifs de psychose, principalement aux hallucinations. La mémoire de source de même que la présence de symptômes sous-cliniques n’ont pourtant jamais été investiguées avant l’apparition de la maladie chez une population à haut risque génétique de psychose (HRG). Or, leur étude permettrait de voir si les déficits en mémoire de source de même que le vécu d’expériences hallucinatoires sont associés à l’apparition de la psychose ou s’ils en précèdent l’émergence, constituant alors des indicateurs précoces de pathologie. Afin d’étudier cette question, trois principaux objectifs ont été poursuivis par la présente thèse : 1) caractériser le fonctionnement de la mémoire de source chez une population HRG afin d’observer si une atteinte de ce processus précède l’apparition de la maladie, 2) évaluer si des manifestations sous-cliniques de symptômes psychotiques, soit les expériences hallucinatoires, sont identifiables chez une population à risque et 3) investiguer si un lien est présent entre le fonctionnement en mémoire de source et la symptomatologie sous-clinique chez une population à risque, à l’instar de ce qui est documenté chez les patients. Les résultats de la thèse ont permis de démontrer que les HRG présentent une atteinte de la mémoire de source ciblée à l’attribution du contexte temporel des souvenirs, ainsi que des distorsions mnésiques qui se manifestent par une fragmentation des souvenirs et par une défaillance de la métacognition en mémoire. Il a également été observé que les expériences hallucinatoires sous-cliniques étaient plus fréquentes chez les HRG. Des associations ont été documentées entre certaines distorsions en mémoire et la propension à halluciner. Ces résultats permettent d’identifier de nouveaux indicateurs cliniques et cognitifs du risque de développer une psychose et permettent de soulever des hypothèses liant l’attribution de la source interne-externe de l’information et le développement de la maladie. Les implications empiriques, théoriques, méthodologiques et cliniques de la thèse sont discutées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les transplanteurs ont actuellement trois options lorsqu’ils doivent choisir une source de cellules pour la greffe de cellules souches hématopoïétiques soit le sang de cordon, la moelle osseuse ou le sang périphérique mobilisé. Les cellules souches hématopoïétiques retrouvées dans le sang des adultes sains pourraient toutefois être une autre option intéressante pour la transplantation. Les résultats de cette présente étude, récemment publié dans la revue Cytotherapy, montrent le potentiel des cellules CD34+ trappées dans les chambres de leucoréduction à générer les différentes lignées cellulaires retrouvées dans le sang. Un système de culture in vitro en milieu sans sérum et en condition hypoxique a été mis a point. La différenciation des cellules dans l’hématopoïèse durant la culture a été caractérisée par analyse multiparamétrique du phénotype avec SPADE. L’expansion a généré une grande hétérogénéité populationnelle mais principalement des progéniteurs engagés vers l’érythropoïèse et la mégacaryopoïèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’étude porte sur les retombées économiques de la mine de Voisey’s Bay sur les conditions socioéconomiques des communautés de Rigolet, Makkovik, Hopedale, Nain et de Postville. Elle adopte une approche multidimensionnelle à la fois descriptive et comparative. Les données utilisées proviennent des recensements de la population de 1991, 1996, 2001 et de 2006 conduits par Statistique Canada. Elle utilise aussi les données de l’Enquête nationale auprès des ménages de 2011. Les données internes à la mine proviennent des Rapports de responsabilités sociales de la firme VBNC qui se charge d’exploiter la mine. Nous avons également en recours aux données des rapports du Gouvernement du Nunatsiavut depuis sa mise en place en 2005. Cette étude s’inscrit dans un contexte d’exploitation des ressources naturelles. Elle montre que, contrairement à des considérations voulant que celles-ci constituent une source de richesses, leurs effets sur les conditions socioéconomiques des communautés locales restent mitigés. Les firmes minières s’acharnent à maximiser leurs profits et les conditions de vie des communautés locales n’en bénéficient que partiellement. Pour notre étude, nous faisons l’hypothèse que cette mine ait eu de nombreuses retombées directes ou indirectes (emplois, achats de biens et services, taxes minières, investissements et redevances) et que celles-ci ont modifié les conditions de vie des communautés concernées. Nous avons opté pour une méthodologie basée sur un modèle de retombées économiques de la mine de Voisey’s Bay; un outil conçu avec l’inspiration de la grille d’évaluation des projets miniers, gaziers et pétroliers sur les conditions socioéconomiques de Paul Kishchuk. Ce modèle nous a permis d’analyser les effets de Voisey’s Bay sur la démographie, le marché du travail, la scolarité, le revenu et le logement. Les dimensions identifiées font état d’une légère amélioration sur les conditions de vie des communautés, bien que l’effet ne puisse pas être totalement attribué à la mine, étant donné le rôle important joué par le Gouvernement du Nunatsiavut depuis sa création.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.