160 resultados para Vecteurs de faille


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La saprolégniose est une maladie fongique causée par le champignon aquatique Saprolegnia sp. qui affecte les poissons sauvages et ceux provenant des piscicultures. L’apparition de touffes cotonneuses semblables à de la ouate de couleur blanche à grise est souvent la première indication de l’infection. Ce saprophyte ubiquitaire se nourrit habituellement des œufs de poissons morts, mais peut se propager rapidement aux œufs sains causant la mort de ces derniers. La saprolégniose est souvent une infection secondaire, mais des souches virulentes peuvent facilement se développer sur les salmonidés ayant subi un stress ou une mauvaise manipulation. De grandes pertes économiques associées à la saprolégniose sont rapportées chaque année à travers le monde surtout dans l’industrie de la pisciculture. Jusqu’en 2002, le contrôle de la saprolégniose pouvait se faire par l’utilisation du vert de malachite, un colorant organique ayant une grande activité antifongique. Malheureusement, cette molécule a été bannie à cause de ses propriétés cancérigènes. Aucun composé aussi efficace n’est actuellement disponible pour traiter les infections de la saprolégniose. Des molécules ou extraits naturels ayant un potentiel antifongique ont donc été testés à l’aide de deux techniques (par graines de chanvre et par cylindre d’agar). Les molécules d’un extrait de propolis (cire de ruches d’abeilles) démontrant de l’activité anti-Saprolegnia ont été identifiées. De plus, une bactérie, Pseudomonas aeruginosa, pouvant être retrouvée dans le même environnement que Saprolegnia sp. a démontré un effet antagoniste au champignon. Une molécule de signalisation intercellulaire produite par P. aeruginosa, 4-hydroxy-2-heptylquinoline (HHQ), a été identifiée comme responsable de l’effet antagoniste contre Saprolegnia sp.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est définie comme une courbure de la colonne vertébrale supérieure à 10 degrés, qui est de cause inconnue et qui affecte de façon prépondérante les adolescents. Des études précédentes sur des modèles murins ont démontré une inactivation partielle du gène Pitx1. Cette inactivation partielle provoque une déformation spinale sévère lors du développement des souris Pitx1+/-, ce qui est grandement similaire au phénotype de la SIA. En se basant sur ces observations, nous postulons que la perte de fonction de Pitx1 pourrait avoir un rôle dans la SIA et pourrait être régulée par des mécanismes moléculaires spécifiques. En effet, des études faites sur l’expression de Pitx1 révèlent une perte de son expression dans les ostéoblastes dérivés de patients SIA au niveau de l’ARNm. Nous émettons l’hypothèse que la perte de Pitx1 dans la SIA pourrait être déclenchée par des facteurs hypoxiques puisqu’il est connu que Pitx1 est réprimé par l’hypoxie et que HIF-2 alpha est surexprimés dans les ostéoblastes des patients SIA même dans des conditions normoxiques. De plus, nous avons découvert une mutation dans le domaine ODD des HIF-1 alpha chez certains patients SIA (3,1%). Une fonction connue de ce domaine est de stabiliser et d’augmenter l’activité transcriptionnelle de HIF-1 alpha dans des conditions normoxiques. Nous avons confirmé, par la technique EMSA, l’existence d’un élément de réponse fonctionnel à l’hypoxie au niveau du promoteur de Pitx1. Cependant, des co-transfections avec des vecteurs d’expression pour HIF-1 alpha et HIF-2 alpha, en présence de leur sous-unité beta ARNT, ont conduit à une activation du promoteur de Pitx1 dans la lignée cellulaire MG-63 ainsi que dans les ostéoblastes des sujets contrôles. Il est intéressant de constater qu’aucune activité du promoteur de Pitx1 dans les ostéoblastes SIA n’a été observée, même après la co-expression de HIF-2 alpha et ARNT, confirmant le fait que l’expression de Pitx1 est abrogée dans la SIA. Dans l’ensemble, nos résultats démontrent un rôle important de Pitx1 dans la SIA et une possible régulation par des facteurs hypoxiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les infections à Besnoitia tarandi sont documentées chez l’espèce Rangifer sp. depuis 1922, les données récoltées sur l’écologie et la distribution de cette parasitose demeurent rares. Les objectifs de cette étude ont donc été (i) d’identifier le meilleur tissu à échantillonner pour détecter les infections à Besnoitia tarandi dans les populations de caribous, (ii) de calculer la sensibilité et la spécificité de l’examen visuel comparativement à l’examen microscopique et (iii) d’identifier les facteurs de risques intrinsèques et extrinsèques associés à cette parasitose afin (iv) de comparer la prévalence et la densité des kystes parasitaires entre certains troupeaux. Nos résultats suggèrent que l'examen microscopique du derme superficiel d’une section de peau provenant du tiers moyen antérieur du métatarse devrait être privilégié pour dépister les infections par B. tarandi et en évaluer l'intensité. L’examen microscopique est également un outil très sensible comparativement à l’examen visuel des kystes parasitaires. Besnoitia tarandi, qui semble être absent du Groenland, a été observé dans environ un tiers des caribous nord-américains. Une variation saisonnière de prévalence et d'intensité de B. tarandi a été détectée; le parasite étant plus abondant chez cet hôte intermédiaire durant la période de l'automne/hiver comparativement à celle du printemps/été. Cet effet saisonnier pourrait être associé à une augmentation de l'abondance du parasite suite à la saison des insectes (i.e. été), supportant ainsi le rôle présumé des arthropodes piqueurs comme vecteurs de la maladie. Cette différence saisonnière pourrait aussi être expliquée par la diminution de la charge parasitaire par le système immunitaire et/ou par un taux de survie inférieur des animaux les plus parasités durant la saison froide. Les niveaux d'infection étaient légèrement plus élevés chez les mâles que chez les femelles, ce qui suggère soit une diminution du taux de mortalité, soit une exposition accrue ou une plus grande susceptibilité au parasite des mâles en comparaison aux femelles. La densité d’infection supérieure dans le troupeau Rivière-aux-Feuilles (Nunavik) suggère des niveaux d'exposition au parasite plus élevés et/ou une diminution des niveaux de résistance de ces caribous à ce protozoaire. Les résultats de cette étude démontrent que B. tarandi peut réduire les chances de survie des caribous infectés. Il sera donc important de continuer à surveiller les infections à B. tarandi surtout en cette période de changements climatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse dirigée sous la direction conjointe de Lise Lamarche et Jean Trudel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche porte sur les patrons de distribution longitudinale (amont-aval) et transversale (rive nord - rive sud) des communautés de crustacés planctoniques qui ont été analysés le long du fleuve Saint-Laurent entre le lac Saint-François et la zone de transition estuarienne, à deux hydropériodes en mai (crue) et en août (étiage). Les données zooplanctoniques et environnementales ont été récoltées à 52 stations réparties sur 16 transects transversaux en 2006. Au chapitre 1, nous présentons les principaux modèles écosystémiques en rivière, une synthèse des facteurs influençant le zooplancton en rivières et les objectifs et hypothèses de recherche. Au chapitre 2, nous décrivons la structure des communautés de zooplancton dans trois zones biogéographiques du fleuve et 6 habitats longitudinaux, ainsi que les relations entre la structure du zooplancton et la distribution spatiale des masses d’eau et les variables environnementales. Au chapitre 3, nous réalisons une partition de la variation des variables spatiales AEM (basées sur la distribution des masses d’eau) et des variables environnementales pour évaluer quelle part de la variation du zooplancton est expliquée par les processus hydrologiques (variables AEM) et les conditions locales (facteurs environnementaux). Le gradient salinité-conductivité relié à la discontinuité fleuve-estuaire a déterminé la distribution à grande échelle du zooplancton. Dans les zones fluviales, la distribution du zooplancton est davantage influencée par la distribution des masses d’eau que par les facteurs environnementaux locaux. La distribution des masses d’eau explique une plus grande partie de la variation dans la distribution du zooplancton en août qu’en mai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal