949 resultados para Base de données à référence spatiale
Resumo:
Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les unités linguistiques sous-lexicales (p.ex., la syllabe, le phonème ou le phone) jouent un rôle crucial dans le traitement langagier. En particulier, le traitement langagier est profondément influencé par la distribution de ces unités. Par exemple, les syllabes les plus fréquentes sont articulées plus rapidement. Il est donc important d’avoir accès à des outils permettant de créer du matériel expérimental ou clinique pour l’étude du langage normal ou pathologique qui soit représentatif de l’utilisation des syllabes et des phones dans la langue orale. L’accès à ce type d’outil permet également de comparer des stimuli langagiers en fonction de leurs statistiques distributionnelles, ou encore d’étudier l’impact de ces statistiques sur le traitement langagier dans différentes populations. Pourtant, jusqu’à ce jour, aucun outil n’était disponible sur l’utilisation des unités linguistiques sous-lexicales du français oral québécois. Afin de combler cette lacune, un vaste corpus du français québécois oral spontané a été élaboré à partir d’enregistrements de 184 locuteurs québécois. Une base de données de syllabes et une base de données de phones ont ensuite été construites à partir de ce corpus, offrant une foule d’informations sur la structure des unités et sur leurs statistiques distributionnelles. Le fruit de ce projet, intitulé SyllabO +, sera rendu disponible en ligne en accès libre via le site web http://speechneurolab.ca/fr/syllabo dès la publication de l’article le décrivant. Cet outil incomparable sera d’une grande utilité dans plusieurs domaines, tels que les neurosciences cognitives, la psycholinguistique, la psychologie expérimentale, la phonétique, la phonologie, l’orthophonie et l’étude de l’acquisition des langues.
Resumo:
Within the European water framework directive (WFD), the status assessment of littoral waters is based both on the chemical quality and on the ecological quality of each water body. Quality elements enabling to assess the ecological status of a water body are, among other things, biological quality elements (phytoplankton, macroalgae, angiosperms, benthic invertebrates, fish), for each of which member states have developed quantitative indicators. This document compiles three deliverables of a multi-annual study intended to characterize the sensitivity of these biological indicators regarding the various anthropogenic pressures exerted on the French Atlantic and Channel coast: ultimately, the goal is to establish a quantitative and predictive relationship, statistically robust, between the WFD indicators used along the French channel and Atlantic coastline, and various anthropogenic pressures acting on these coasts. These three deliverables are the following : - The reports of various interviews performed with French national referents for the biological quality elements used within the littoral part of the WFD in Channel and Atlantic (phytoplankton, subtidal and intertidal macroalgae, opportunistic blooming macroalgae, angiosperms and benthic invertebrates). These interviews aimed to specify, for each metric constitutive of the BQE indicator (if multi-metric), the "relevant" pressures, as well as the trend of this impact, - Sheets describing the "pressure" and "environment" data available, in order to characterize spatially and quantitatively these "relevant" anthropogenic pressures acting on French Channel and Atlantic coast, - A progress report dealing with the development of a database tool, for archiving quantitative data characterizing "relevant" littoral anthropogenic pressures.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
L'article présente quelques éléments de la procédure mise en place pour traiter un corpus écrit comportant 617 textes (près de 500 000 mots) relatifs aux eurorégions. Complexe et hétérogène à plusieurs titres (technique, linguistique, éditorial, générique, énonciatif), le corpus pose la difficulté majeure de l’appréhension de données multilingues (français, italien, espagnol, anglais, allemand, néerlandais). Sa manipulation a nécessité une réflexion adaptée et une démarche de modélisation que nous qualifions d’« agile » en raison de son caractère souple et itératif. La plateforme d’analyse élaborée permet de disposer de résultats utiles à l’analyse qualitative ultérieure du discours eurorégional. Elle articule un logiciel d'analyse morphosyntaxique éprouvé (TreeTagger) à des programmes (Perl) et à une base de données (SQLite) développés pour optimiser les requêtes multilingues simultanées et l’exportation automatique des résultats. Les fonctionnalités liées à la localisation contextualisée de mots- pivots, au recueil de dénominations et à la détection de segments répétés nous servent ici de guides pour exprimer les besoins de la recherche, les problèmes rencontrés et les solutions proposées. L'analyse d'observables récurrents, à savoir les notions de décision et de responsabilité, illustre le propos.
Resumo:
Conférence-midi prononcée à la Direction des bibliothèques le 13 février 2003.
Resumo:
Cet article a pour but de démystifier la notion de OpenURL, un terme de plus en plus présent dans le domaine de l'information, à l'aide de concepts théoriques mais surtout grâce à une description pratique de sa mise en place et de sa capacité d'action. Une courte introduction sur le concept d'arrimage dans les ressources documentaires donnera le ton pour un bref survol de la naissance du concept OpenURL suivi d'une explication concrète de son fonctionnement lorsque utilisé dans le processus de recherche documentaire. Pour les usagers, la force de cette technologie réside dans le fait qu'elle permet, lorsque possible, un accès direct et transparent aux ressources électroniques tout en offrant des options supplémentaires des plus pertinentes. De façon pragmatique, l'usager pourra dorénavant chercher une référence bibliographique dans une base de données et accéder directement au plein texte de l'article repéré si son institution y est abonné ou sinon, être redirigé ailleurs, vers le formulaire institutionnel de prêt en bibliothèques entre autres. On constatera que cette toute nouvelle norme, qui n'en est qu'à ses débuts, offre des avantages certains dans le milieu des bibliothèques de recherche.
Resumo:
Le recours aux technologies de l’information et de la communication dans tous les domaines de la vie politique, économique et sociale doit s’accompagner d’une réflexion quant à la pertinence ou non de compléter, de réviser en tout ou en partie l’encadrement juridique applicable à un secteur donné. Cette orientation est particulièrement importante lorsqu’il s’agit d’informatiser le traitement des données relatives à la santé. Pour appréhender les éléments cruciaux de cette problématique, les auteurs s’intéressent à l’encadrement actuel et à certains enjeux inhérents à cette « nouvelle » façon d’envisager la gestion de ces données et ce dans une perspective europeo-canadienne.
Resumo:
Ce mémoire présente, dans une première partie, une étude détaillée de la mortalité adulte des Canadiens-français nés entre 1620 et 1749. Des résultats inédits sont présentés sous forme de tables de mortalité abrégées avec entrées échelonnées. La comparaison de celles-ci permet de décrire les différences de comportement observées entre les hommes et les femmes, les populations de régions urbaines et rurales ainsi que trois groupes de générations s’étant succédé au cours de la période étudiée. Dans une deuxième partie, une étude de cas visant à confirmer l’influence du caractère familial sur la longévité est présentée. Une famille se distinguant par les durées de vie exceptionnellement longues de plusieurs de ses membres est comparée à une famille fictive de référence, représentative de la population moyenne de l’époque. Les résultats opposant ces deux familles consistent en des âges moyens au décès et des proportions de survivants à différents âges. Cette deuxième étude s’inscrit dans le prolongement des recherches effectuées avec les ascendances de Jeanne Calment et Marie-Louise Meilleur. Les informations tirées des registres paroissiaux du Québec ancien et consolidées informatiquement par le Programme de recherche en démographie historique (PRDH) dans une base de données appelée Registre de la population du Québec ancien (RPQA) constituent la source exploitée pour la réalisation des deux parties du mémoire.