947 resultados para Méthode des éléments finis
Resumo:
Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.
Resumo:
Cette étude examine l'impact de la révision du chapitre 3480 de l'I.C.C.A., survenue en décembre 1989, sur le comportement des gestionnaires des entreprises canadiennes dans le traitement des éléments extraordinaires. L'ajout d'un troisième critère à la définition, relatif à l'absence de contrôle de la direction ou de ses dirigeants dans l'appréciation des éléments extraordinaires, semble avoir pour objectif d'uniformiser la classification et la présentation des différentes composantes de l'état des résultats. Cette uniformisation permettrait potentiellement d'éliminer les manipulations comptables par l'utilisation de certains éléments extraordinaires pour lisser les bénéfices. L'analyse de trois modèles de régression, pour la première période (trois ans pré-révision) suggère que l'ancienne définition des éléments extraordinaires a permis à certains gestionnaires canadiens d'utiliser les éléments extraordinaires discrétionnaires et semi-discrétionnaires pour lisser leurs bénéfices dans le temps. Par contre, son resserrement (trois ans post-révision) a contribué à une réduction importante du nombre des éléments extraordinaires dans les états financiers. La limitation de ces éléments aux seuls événements fortuits et hors du contrôle de la direction semble enrayé les latitudes discrétionnaires observées auparavant. En outre, l'association entre la présence de lissage et les caractéristiques financières de l'entreprise (pour la première période) suggèrent que la variabilité des bénéfices ainsi que la taille sont les deux indicateurs de lissage, en ce sens qu'ils incitent les gestionnaires à lisser leurs bénéfices par l'utilisation d'éléments extraordinaires. Il ressort de cette étude que les objectifs recherchés par la révision du chapitre 3480 de l'I.C.C.A. semblent atteints. Dorénavant, les éléments extraordinaires ne peuvent plus faire l'objet de manipulations pour lisser les bénéfices.
Resumo:
Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.
Resumo:
[EU]Azken urteetan argi geratu da gizakiak aurrera egiteko ezinbestekoa duela zehaztasuna. Teknologia berriak geroz eta bideratuagoak daude produktuen tamaina ahalik eta gehien murrizten edota produktu handien perdoiak nanometroetara hurbiltzeko ahaleginetan. Hau lortzeko bidean ezinbestekoa da elementu guztietan zehaztasuna limitera eramatea eta funtsean, honetan zentratuko da lan hau. Proiektu hau artikulazioen zehaztasuna hobetzeko tekniketan zentratuko da, gehiago zehaztuz, optika arloan lan egingo duen errobot baten artikulazioak analizatuko ditu. Artikulazioen zehaztasun optimoa lortzeko artikulazio hauek generazio berriko artikulazioak izatea pentsatu da, artikulazio flexible edo “flexible joints” izenekoak. Artikulazio hauek, orain artekoak ez bezala, ez dituzte bi elementu elkartuko, elementu bakarrez osatuta egongo dira eta bere buruarekiko errotazioz eta flexioz egingo dute lan honela, ohiko artikulazioek funtzionamendu egokirako behar duten lasaiera baztertu egingo da zehaztasun hobeak lortuz. Lan honetan zehar artikulazio flexible mota bat aukeratuko da eta geometriaren hainbat parametroren eta material ezberdinen aurrean edukiko duen jokaera analizatuko da. Aipatu beharra dago, artikulazio flexibleak azken hamarkadetan garatutako ideiak direnez beraiei buruzko informazioa oso pribatizatua dagoela eta ez dela lan erraza hau interneten edota liburutegietan topatzea. Ala ere, hauen analisirako aurkitu den informazio guztia eranskinetan dauden artikuluetan dago. Bertatik atera den informazio garrantzitsuena elementu finituen bitartezko analisian geometriak eduki beharreko baldintza batzuk eta ulermen eta aldaratze egokia lortzeko komeni diren datuak zehaztea izan da. Interesgarria da aipatzea analisiaren ondorioak konstante elastiko eta biratu dezaketen angelu maximoaren bitartez egin direla.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
The Water Framework Directive uses the “One-out, all-out” (OAOO) principle in assessing water bodies (i.e. the worst status of the elements used in the assessment determines the final status of the water body). Combination of multiple parameters within a biological quality element (BQEs) can be done in different ways. This study analysed several aggregation conditions within the BQE "Flora other than phytoplankton" (intertidal macroalgae, subtidal macroalgae, eelgrass beds and opportunistic blooms) using monitoring data collected along the Channel and Atlantic coastline. Four aggregation criteria were tested on two sets of data collected between 2004 and 2014: OOAO, average, intermediate method between OOAO and average and a method taking into account an uncertainty value at the threshold "Good/Moderate." Based on available data, the intermediate method appears the most qualified method using first an averaging approach between the natural habitat elements and then applying the OAOO between this mean and the opportunistic blooms, characteristic of an eutrophic environment. Expert judment might be used to ensure in the overall interpretation of results at waterbody level and in the classification outcomes.
Resumo:
Cette étude qualitative a pour objectif de comprendre comment les interventions verbales des apprenantes et apprenants contribuent à la résolution effective des tâches linguistiques orales dans une classe d'anglais langue seconde selon la théorie Vygotskienne. La recherche a montré que les apprenantes et apprenants passent un temps considérable à discuter les énoncés ainsi que de la meilleure façon de résoudre les tâches linguistiques orales. Or, la recension des écrits a révélé que peu d'études ont tenté de comprendre ce que font les apprenantes et apprenants quand ils sont appelés à résoudre des tâches orales. Dans notre étude nous avons donc essayé de jeter la lumière sur ce phénomène. Les interactions verbales de 10 apprenantes et apprenants ont été enregistrées pendant la résolution de tâches linguistiques orales dans une classe d'anglais langue seconde de l'université de Sherbrooke. Pour analyser les données, nous avons utilisé des éléments de trois méthodes d'analyse, notamment la méthode microgénétique de Vygotsky, l'analyse interactionnelle et l'analyse des conversations. Les résultats ont révélé que les apprenantes et apprenants utilisent un nombre important de stratégies afin de mieux comprendre et résoudre les tâches linguistiques orales de façon efficace. Ils recourent notamment à leur langue maternelle, la répétition et la co-construction de phrases. La discussion de ces résultats a montré que la meilleure compréhension des stratégies utilisées par les apprenantes et apprenants ainsi que comment celle-ci [i.e. celles-ci] sont utilisées pourrait contribuer positivement à l'amélioration des techniques d'enseignement par tâches des langues secondes.
Resumo:
Le paysage sonore est une forme de perception de notre environnement qui nous permet d’identifier les composantes sonores de notre quotidien. Ce projet de recherche porte sur une thématique particulière, les sons produits par les végétaux et leurs rôles dans les ambiances sonores paysagères. C’est la perspective que nous avons explorée in situ, en comparant les différentes espèces végétales; cette collection d’informations nous permet de proposer une typologie d’ambiances sonores des végétaux. Dans la première partie, des notions rattachées au « monde sonore » telles que l’objet sonore, le paysage sonore et les effets sonores justifient d’établir, dans la méthodologie, une grille d’analyse comportant différentes échelles d’écoute. Une lecture multidisciplinaire propose, d’une part, de réunir de l’information sur le son et les végétaux, la morphologie de ces derniers, l’aménagement au site, les conditions climatiques et, d’autre part, de retrouver ce qui a trait au son dans l’histoire des jardins, dont les jardins sensoriels, thérapeutiques, technologiques, et des sentiers d’interprétation sonore, sous l’angle du son comme projet. De plus, une liste de végétaux recevant les chants et cris de la faune vient introduire la notion de biodiversité sonore. Une enquête sociale de terrain, par la méthode des parcours commentés, et une enquête « experte » ont été réalisées au Jardin botanique de Montréal. Ces deux enquêtes nous ont permis de constituer une grille d’analyse croisée comprenant plusieurs échelles d’écoute : textures, actions sonores, effets sonores... De là, des générateurs d’ambiance (morphologie, organisation, climat) ont été relevés pour déterminer les aspects de récurrences et de différenciations d’un type d’ambiance sonore à l’autre. Des associations se sont formées en fonction de onze types de végétaux, chacun comprenant plusieurs sous-catégories. Celles-ci proposent des ambiances sonores spécifiques, des échelles d’écoute à considérer pour chaque type d’ambiance et l’énumération d’espèces à utiliser. Cette recherche ouvre la voie à un autre type de lecture sonore, par thématique d’ambiance (les sons du végétal dans notre cas), afin d’offrir de nouveaux outils de conception pour les professionnels, en profonde relation avec les perceptions sonores d’usagers sur le terrain et l’agencement spécifique d’un site.
Resumo:
En raison de la grande résolution des photographies des échantillons, celles-ci se trouvent dans un fichier complémentaire, puisque les conditions de forme imposées ne permettaient pas l'affichage intégral de ces images au sein du mémoire.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
L'analyse quantitative a été réalisée en cotutelle avec Rémi Boivin et Pierre Tremblay et publiée dans la Revue de Criminologie: Boivin, R., Lamige, C,. Tremblay, P. (2009) La police devrait-elle cibler les taudis malfamés? Criminologie, (42)1, 225-266.
Resumo:
En 1975, Wilson et King ont proposé que l'évolution opère non seulement via des changements affectant la structure des protéines, mais aussi via des mutations qui modifient la régulation génétique. L'étude des éléments régulateurs de l'expression génétique a un rôle important dans la compréhension de l'expression de différentes maladies et de la réponse thérapeutique. Nous avons développé un algorithme bio- informatique qui nous permet rapidement de trouver des sites de régulation génétique à travers tout le génome et pour une grande quantité de gènes. Notre approche consiste à trouver des sites polymorphes (SNPs) qui sont en déséquilibre de liaison avec le débalancement allélique (AI) afin de cartographier la région régulatrice et le site responsable. Notre méthode est avantageuse par rapport à d'autres méthodes, car elle n'a pas besoin des données « phasées». De plus, les données de débalancement allélique ne sont pas affectées par des facteurs externes étant donné qu'ils sont mesurés dans la même cellule. Nous avons démontré que notre approche est fiable et qu'elle peut détecter des sites loin du gène. De plus, il peut être appliqué à des données de génotypage sans avoir besoin de les « phaser » .
Resumo:
La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.
Resumo:
Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.