12 resultados para Épidémiologie spatiale
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.
Resumo:
Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Résumé : Les aménagements axés sur le transport en commun (transit-oriented development ou TOD) reposent sur la création de développements résidentiels à proximité d’un nœud de transport existant. Dans le cadre de cet essai, on cherche plutôt à identifier les quartiers existants de Montréal possédant déjà les caractéristiques propices à l’aménagement d’un TOD, mais mal desservis par les transports en commun. En s’inspirant d’une étude menée aux Pays-Bas, on a eu recours à une analyse spatiale multicritères afin de concevoir un «indice du potentiel TOD», comportant quatre critères jugés essentiels, soit : la densité d’habitants, la mixité des utilisations du sol, la mixité sociale, ainsi que la distance aux transports. Malgré la difficulté d’intégrer l’ensemble des critères identifiés dans la littérature, les résultats révèlent un fort potentiel TOD sur le Plateau Mont-Royal, dans le Sud-Ouest, Hochelaga-Maisonneuve et plus particulièrement dans Anjou et Saint-Michel. On recommande notamment un secteur situé dans Saint-Michel, dont le potentiel TOD pourrait être enrichi par la création de plus fortes connexions au réseau de transports en commun.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.
Resumo:
Résumé : Problématique : Une augmentation importante de la prévalence du diabète a été observée au Nouveau-Brunswick au cours de la dernière décennie. Sachant que le diabète est associé à des complications de santé nombreuses et à des coûts élevés infligés au système de soins de santé, il devient important d’identifier les facteurs pouvant expliquer l’augmentation de la prévalence du diabète. L’étude a pour objectif de décrire l’évolution de ces facteurs afin de prioriser les interventions en lien avec cette maladie. Méthodes : Une revue critique de la littérature a permis l’identification de l’ensemble des facteurs pouvant expliquer l’augmentation de la prévalence du diabète. Des données administratives disponibles au Nouveau-Brunswick et des données tirées d’enquêtes de Statistique Canada ont été utilisées afin de décrire l’évolution de plusieurs des facteurs tirés de la revue critique de la littérature. Résultats : Une augmentation de 120% de la prévalence du diabète de type 2 au Nouveau-Brunswick a été observée entre 2001 et 2014. Cette augmentation pourrait être explicable par l’ensemble des cinq catégories de facteurs pouvant expliquer une augmentation de la prévalence dont plusieurs facteurs de risque individuels (dont l’obésité, le prédiabète et l’hypertension), de facteurs de risque environnementaux (dont l’urbanisation), de l’évolution de la maladie (exprimée par une diminution du taux de mortalité et une augmentation de l’incidence), de l’effet de détection (augmentation du nombre de personnes testées, diminution de la valeur d’HbA1c et de l’âge à la détection) et d’un effet du changement dans l’environnement (exprimé par un effet de période et de cohorte). Conclusion: L’augmentation de la prévalence du diabète notée au Nouveau-Brunswick pourrait s’expliquer par plusieurs facteurs de risque individuels, environnementaux, de l’évolution de la maladie, de l’effet de détection et d’un effet du changement dans l’environnement. Cette étude permettra de guider les actions sur le diabète au Nouveau-Brunswick et d’inspirer les autres provinces et pays à identifier les facteurs pouvant contribuer à l’augmentation de la prévalence du diabète grâce à la liste de l’ensemble des facteurs potentiellement explicatifs.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Les inventaires archéologiques représentent une part importante des travaux archéologiques qui sont effectués en sol québécois. Il s’agit d’interventions qui sont réalisées en milieux urbains ou ruraux, mais également dans des milieux forestiers parfois éloignés. Lors de ces interventions, plusieurs informations de nature spatiale sont prises, tant pour évaluer la présence ou l’absence de vestiges archéologiques que pour décrire l’environnement et les perturbations observées. Les données issues de ces travaux sont de manière générale enregistrées sur le terrain sur des supports papiers, pour être éventuellement transférées en format numérique après l’intervention, et la localisation sur le terrain est effectuée à l’aide de cartes, de la boussole et d’un appareil GPS. Ce projet cherche à évaluer la contribution potentielle d’une solution géomatique mobile qui permettrait d’assister les archéologues sur le terrain, tant au niveau de la saisie de données que de la géolocalisation sur le terrain. Afin d’identifier l’intérêt, les attentes et les besoins prioritaires d’une telle solution, une enquête a été réalisée auprès de la communauté archéologique. Subséquemment, afin de démontrer qu’une solution géomatique mobile pourrait être développée afin de soutenir les travaux archéologiques, un appareil mobile adapté aux contraintes du terrain archéologique a été identifié et un prototype d’application a été développé, sur la base des résultats de l’enquête obtenus. Il nous a par la suite été possible de faire prendre en main la solution mobile développée par une archéologue et un essai en milieu contrôlé a pu être réalisé afin d’avoir une évaluation critique de l’application et de proposer des pistes d’amélioration. Les résultats obtenus indiquent que la technologie géomatique mobile est aujourd’hui suffisamment accessible pour pouvoir bien s’adapter aux réalités de terrain et ainsi venir répondre à certains besoins des professionnels de terrain tout en demeurant abordable. Malgré quelques pistes d’amélioration qui ont été identifiées, l’enthousiasme suscité par l’application développée démontre l’intérêt des utilisateurs à intégrer ces nouvelles technologies. La démarche de développement employée est également novatrice puisqu’elle permet de développer, en l’espace de quelques mois, une application adaptée à un contexte de terrain professionnel particulier, tout en demeurant grandement modulable et pouvant s’adapter à d’autres domaines d’application.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Ce mémoire s’intéresse à la représentation des lieux ainsi qu’à leur implication en tant que vecteurs d’idéologie dans le roman Neuf jours de haine, de Jean-Jules Richard. L’intérêt de ce sujet réside principalement dans le fait que Neuf jours de haine a été très peu étudié par la critique universitaire. L’objectif est de montrer que le roman de Jean-Jules Richard diffère des romans de guerre québécois de l’époque non seulement par son sujet original (la Deuxième Guerre mondiale telle que vécue sur le front de l’Europe de l’Ouest), mais également dans la dialectique existant entre les espaces civil et militaire. Le mémoire se divise en trois chapitres. Le premier est consacré au rappel des concepts théoriques nécessaires à l’analyse du roman. Dans celui-ci seront évoqués, entre autres, les notions d’espace, de lieu, de figure spatiale et de configuration spatiale. Les deux chapitres suivants seront consacrés à l’analyse de la représentation des lieux dans Neuf jours de haine. Le chapitre deux se penche sur les lieux diégétiques du roman, lesquels comprennent, entre autres, la tranchée, le champ, le jardin, la ferme, la forêt, la ville, la prison ainsi que l’eau et ses dérivés. Le troisième et dernier chapitre, quant à lui, aborde plutôt les lieux mémoriels de l’œuvre de Richard. Ceux-ci comprennent la prairie, la ferme, la ville, le village, la prison et le cimetière. Dans chacun de ces chapitres, non seulement les lieux sont analysés selon leur fonction diégétique et leur description par les personnages, mais ils sont aussi départagés selon leur degré de sécurité. Cette analyse permet, dans un premier temps, de montrer que la guerre vue par un soldat au front occasionne un renversement des notions traditionnelles de sécurité et d’hostilité. Dans un deuxième temps, celle-ci permet également de cerner l’importance des lieux dans la construction de la diégèse du récit.