253 resultados para Aymétrie spatiale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mallorca, the largest of the Balearic Islands, is a well-known summer holidays destination; an ideal place to relax and enjoy the sun and the sea. That tourist gaze reflected on postcards results from advertising campaigns, where cinema played an important role with documentaries and fiction films. The origins of that iconography started in the decades of the 1920’s and 1930’s, reflecting the so-called myth of the “island of calm”. On the other hand, the films of the 1950’s and 1960’s created new stereotypes related to the mass tourism boom. Busy beaches and the white bodies of tourists replaced white sandy beaches, mountains and landscapes shown up in the movies of the early decades of the 20th century. Besides, hotels and nightclubs also replaced monuments, rural landscapes and folk exhibitions. These tourist images mirror the social and spatial transformations of Mallorca, under standardization processes like other seaside mass tourist destinations. The identity was rebuilt on the foundations of "modernity". Although "balearization" has not ceased, nowadays filmmaking about Mallorca is advertising again a stereotype close to that one of the 1920s and 1930s, glorifying the myth of the "island of calm". This singular identity makes the island more profitable for capital that searches socio-spatial differentiation in post-fordist times.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper discusses some aspects of hunter-gatherer spatial organization in southern South Patagonia, in later times to 10,000 cal yr BP. Various methods of spatial analysis, elaborated with a Geographic Information System (GIS) were applied to the distributional pattern of archaeological sites with radiocarbon dates. The shift in the distributional pattern of chronological information was assessed in conjunction with other lines of evidence within a biogeographic framework. Accordingly, the varying degrees of occupation and integration of coastal and interior spaces in human spatial organization are explained in association with the adaptive strategies hunter-gatherers have used over time. Both are part of the same human response to changes in risk and uncertainty variability in the region in terms of resource availability and environmental dynamics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vision joue un rôle très important dans la prévention du danger. La douleur a aussi pour fonction de prévenir les lésions corporelles. Nous avons donc testé l’hypothèse qu’une hypersensibilité à la douleur découlerait de la cécité en guise de compensation sensorielle. En effet, une littérature exhaustive indique qu’une plasticité intermodale s’opère chez les non-voyants, ce qui module à la hausse la sensibilité de leurs sens résiduels. De plus, plusieurs études montrent que la douleur peut être modulée par la vision et par une privation visuelle temporaire. Dans une première étude, nous avons mesuré les seuils de détection thermique et les seuils de douleur chez des aveugles de naissance et des voyants à l’aide d’une thermode qui permet de chauffer ou de refroidir la peau. Les participants ont aussi eu à quantifier la douleur perçue en réponse à des stimuli laser CO2 et à répondre à des questionnaires mesurant leur attitude face à des situations douloureuses de la vie quotidienne. Les résultats obtenus montrent que les aveugles congénitaux ont des seuils de douleur plus bas et des rapports de douleur plus élevés que leurs congénères voyants. De plus, les résultats psychométriques indiquent que les non-voyants sont plus attentifs à la douleur. Dans une deuxième étude, nous avons mesuré l’impact de l'expérience visuelle sur la perception de la douleur en répliquant la première étude dans un échantillon d’aveugles tardifs. Les résultats montrent que ces derniers sont en tous points similaires aux voyants quant à leur sensibilité à la douleur. Dans une troisième étude, nous avons testé les capacités de discrimination de température des aveugles congénitaux, car la détection de changements rapides de température est cruciale pour éviter les brûlures. Il s’est avéré que les aveugles de naissance ont une discrimination de température plus fine et qu’ils sont plus sensibles à la sommation spatiale de la chaleur. Dans une quatrième étude, nous avons examiné la contribution des fibres A∂ et C au traitement nociceptif des non-voyants, car ces récepteurs signalent la première et la deuxième douleur, respectivement. Nous avons observé que les aveugles congénitaux détectent plus facilement et répondent plus rapidement aux sensations générées par l’activation des fibres C. Dans une cinquième et dernière étude, nous avons sondé les changements potentiels qu’entrainerait la perte de vision dans la modulation descendante des intrants nociceptifs en mesurant les effets de l’appréhension d’un stimulus nocif sur la perception de la douleur. Les résultats montrent que, contrairement aux voyants, les aveugles congénitaux voient leur douleur exacerbée par l’incertitude face au danger, suggérant ainsi que la modulation centrale de la douleur est facilitée chez ces derniers. En gros, ces travaux indiquent que l’absence d’expérience visuelle, plutôt que la cécité, entraine une hausse de la sensibilité nociceptive, ce qui apporte une autre dimension au modèle d’intégration multi-sensorielle de la vision et de la douleur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À la fin du 19e siècle, Dr. Ramón y Cajal, un pionnier scientifique, a découvert les éléments cellulaires individuels, appelés neurones, composant le système nerveux. Il a également remarqué la complexité de ce système et a mentionné l’impossibilité de ces nouveaux neurones à être intégrés dans le système nerveux adulte. Une de ses citations reconnues : “Dans les centres adultes, les chemins nerveux sont fixes, terminés, immuables. Tout doit mourir, rien ne peut être régénérer” est représentative du dogme de l’époque (Ramón y Cajal 1928). D’importantes études effectuées dans les années 1960-1970 suggèrent un point de vue différent. Il a été démontré que les nouveaux neurones peuvent être générés à l’âge adulte, mais cette découverte a créé un scepticisme omniprésent au sein de la communauté scientifique. Il a fallu 30 ans pour que le concept de neurogenèse adulte soit largement accepté. Cette découverte, en plus de nombreuses avancées techniques, a ouvert la porte à de nouvelles cibles thérapeutiques potentielles pour les maladies neurodégénératives. Les cellules souches neurales (CSNs) adultes résident principalement dans deux niches du cerveau : la zone sous-ventriculaire des ventricules latéraux et le gyrus dentelé de l’hippocampe. En condition physiologique, le niveau de neurogenèse est relativement élevé dans la zone sous-ventriculaire contrairement à l’hippocampe où certaines étapes sont limitantes. En revanche, la moelle épinière est plutôt définie comme un environnement en quiescence. Une des principales questions qui a été soulevée suite à ces découvertes est : comment peut-on activer les CSNs adultes afin d’augmenter les niveaux de neurogenèse ? Dans l’hippocampe, la capacité de l’environnement enrichi (incluant la stimulation cognitive, l’exercice et les interactions sociales) à promouvoir la neurogenèse hippocampale a déjà été démontrée. La plasticité de cette région est importante, car elle peut jouer un rôle clé dans la récupération de déficits au niveau de la mémoire et l’apprentissage. Dans la moelle épinière, des études effectuées in vitro ont démontré que les cellules épendymaires situées autour du canal central ont des capacités d’auto-renouvellement et de multipotence (neurones, astrocytes, oligodendrocytes). Il est intéressant de noter qu’in vivo, suite à une lésion de la moelle épinière, les cellules épendymaires sont activées, peuvent s’auto-renouveller, mais peuvent seulement ii donner naissance à des cellules de type gliale (astrocytes et oligodendrocytes). Cette nouvelle fonction post-lésion démontre que la plasticité est encore possible dans un environnement en quiescence et peut être exploité afin de développer des stratégies de réparation endogènes dans la moelle épinière. Les CSNs adultes jouent un rôle important dans le maintien des fonctions physiologiques du cerveau sain et dans la réparation neuronale suite à une lésion. Cependant, il y a peu de données sur les mécanismes qui permettent l'activation des CSNs en quiescence permettant de maintenir ces fonctions. L'objectif général est d'élucider les mécanismes sous-jacents à l'activation des CSNs dans le système nerveux central adulte. Pour répondre à cet objectif, nous avons mis en place deux approches complémentaires chez les souris adultes : 1) L'activation des CSNs hippocampales par l'environnement enrichi (EE) et 2) l'activation des CSNs de la moelle épinière par la neuroinflammation suite à une lésion. De plus, 3) afin d’obtenir plus d’information sur les mécanismes moléculaires de ces modèles, nous utiliserons des approches transcriptomiques afin d’ouvrir de nouvelles perspectives. Le premier projet consiste à établir de nouveaux mécanismes cellulaires et moléculaires à travers lesquels l’environnement enrichi module la plasticité du cerveau adulte. Nous avons tout d’abord évalué la contribution de chacune des composantes de l’environnement enrichi à la neurogenèse hippocampale (Chapitre II). L’exercice volontaire promeut la neurogenèse, tandis que le contexte social augmente l’activation neuronale. Par la suite, nous avons déterminé l’effet de ces composantes sur les performances comportementales et sur le transcriptome à l’aide d’un labyrinthe radial à huit bras afin d’évaluer la mémoire spatiale et un test de reconnaissante d’objets nouveaux ainsi qu’un RNA-Seq, respectivement (Chapitre III). Les coureurs ont démontré une mémoire spatiale de rappel à court-terme plus forte, tandis que les souris exposées aux interactions sociales ont eu une plus grande flexibilité cognitive à abandonner leurs anciens souvenirs. Étonnamment, l’analyse du RNA-Seq a permis d’identifier des différences claires dans l’expression des transcripts entre les coureurs de courte et longue distance, en plus des souris sociales (dans l’environnement complexe). iii Le second projet consiste à découvrir comment les cellules épendymaires acquièrent les propriétés des CSNs in vitro ou la multipotence suite aux lésions in vivo (Chapitre IV). Une analyse du RNA-Seq a révélé que le transforming growth factor-β1 (TGF-β1) agit comme un régulateur, en amont des changements significatifs suite à une lésion de la moelle épinière. Nous avons alors confirmé la présence de cette cytokine suite à la lésion et caractérisé son rôle sur la prolifération, différentiation, et survie des cellules initiatrices de neurosphères de la moelle épinière. Nos résultats suggèrent que TGF-β1 régule l’acquisition et l’expression des propriétés de cellules souches sur les cellules épendymaires provenant de la moelle épinière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À Québec, les dernières décennies ont été marquées par la dispersion des commerces et des services dans les secteurs de la ville qui bénéficient d’une accessibilité autoroutière accrue. Ces changements ont conduit à une diminution de l’achalandage des rues commerciales situées dans les quartiers centraux. S’attachant au sort de ces anciennes rues commerciales, notre étude s’intéresse aux éléments qui, du point de vue de ses usagers, influencent le pouvoir attractif de l’une d’entre elles : l’avenue Cartier. Au préalable, nous examinons la manière dont les usagers conçoivent mentalement l’extension spatiale du vocable avenue Cartier. Pour ce faire, nous utilisons la technique des groupes nominaux (TGN), un questionnaire et la cartographie participative comme méthodes de collecte de données. Nos résultats montrent que l’avenue Cartier, telle que les répondants se la conçoivent mentalement, dépasse largement ses limites physiques. Par ailleurs, l’offre commerciale et de services, l’offre de restauration et d’alimentation, la dimension sociale, l’atmosphère, la situation géographique, les déplacements des individus, les motivations personnelles sont les composantes qui, en ordre décroissant, influencent la fréquentation de l’avenue Cartier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Les aménagements axés sur le transport en commun (transit-oriented development ou TOD) reposent sur la création de développements résidentiels à proximité d’un nœud de transport existant. Dans le cadre de cet essai, on cherche plutôt à identifier les quartiers existants de Montréal possédant déjà les caractéristiques propices à l’aménagement d’un TOD, mais mal desservis par les transports en commun. En s’inspirant d’une étude menée aux Pays-Bas, on a eu recours à une analyse spatiale multicritères afin de concevoir un «indice du potentiel TOD», comportant quatre critères jugés essentiels, soit : la densité d’habitants, la mixité des utilisations du sol, la mixité sociale, ainsi que la distance aux transports. Malgré la difficulté d’intégrer l’ensemble des critères identifiés dans la littérature, les résultats révèlent un fort potentiel TOD sur le Plateau Mont-Royal, dans le Sud-Ouest, Hochelaga-Maisonneuve et plus particulièrement dans Anjou et Saint-Michel. On recommande notamment un secteur situé dans Saint-Michel, dont le potentiel TOD pourrait être enrichi par la création de plus fortes connexions au réseau de transports en commun.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.