949 resultados para Cadastral updating
Resumo:
A indústria de transformação de material plástico contribui de forma relevante para o desenvolvimento da economia mundial. Com o objetivo de desenvolvimento dessa indústria, a empresa Pentaplast S. A., situada em Água Longa, Santo Tirso, desenvolve a conceção de novos produtos para novas aplicações. Esta empresa para continuar na posição de destaque que possui, tem que conduzir a sua existência na melhoria contínua e atualização fase ao mercado. Na indústria termoformadora existe uma procura constante de novos materiais, visto ser um mercado muito competitivo. Neste contexto, o presente trabalho tem como objetivo desenvolver um filme plástico com o aspeto de papel para a indústria termoformadora, criando desta forma um impacto no consumidor para a preocupação ambiental. De forma a encontrar soluções para o problema mencionado, conduziu-se ao estudo e desenvolvimento de um novo produto – Paper Like, sendo este, um produto reciclável e adotado às necessidades da termoformação. Para isso, desenvolveu-se o projeto utilizando o processo de termolaminação, com a adição de um aditivo na camada externa, permitindo incorporar ao filme plástico, o aspeto e textura de papel. Foram testados, separadamente, dois aditivos, X e Y, base PET e PE, respetivamente, com diferentes percentagens de incorporação. O aditivo X foi desenvolvido especialmente para este projeto, tendo como base politereftalato de etileno, no entanto com a sua incorporação não se obteve os resultados esperados, somente dava um aspeto mate ao filme extrudidos. O aditivo Y, já existe no mercado mas nunca utilizado em extrusão plana, tem como base polietileno e a sua incorporação permitiu obter um filme com aspeto de papel, comprovando-se a sua compatibilidade com pigmentos, os quais dão diversas cores aos filmes, permitindo assim competir com os filmes tradicionais. Infelizmente a termolaminação do filme com o aditivo Y não foi possível, o que inviabiliza a selagem da embalagem.
Resumo:
The processes of mobilization of land for infrastructures of public and private domain are developed according to proper legal frameworks and systematically confronted with the impoverished national situation as regards the cadastral identification and regularization, which leads to big inefficiencies, sometimes with very negative impact to the overall effectiveness. This project report describes Ferbritas Cadastre Information System (FBSIC) project and tools, which in conjunction with other applications, allow managing the entire life-cycle of Land Acquisition and Cadastre, including support to field activities with the integration of information collected in the field, the development of multi-criteria analysis information, monitoring all information in the exploration stage, and the automated generation of outputs. The benefits are evident at the level of operational efficiency, including tools that enable process integration and standardization of procedures, facilitate analysis and quality control and maximize performance in the acquisition, maintenance and management of registration information and expropriation (expropriation projects). Therefore, the implemented system achieves levels of robustness, comprehensiveness, openness, scalability and reliability suitable for a structural platform. The resultant solution, FBSIC, is a fit-for-purpose cadastre information system rooted in the field of railway infrastructures. FBSIC integrating nature of allows: to accomplish present needs and scale to meet future services; to collect, maintain, manage and share all information in one common platform, and transform it into knowledge; to relate with other platforms; to increase accuracy and productivity of business processes related with land property management.
Resumo:
Neste projecto é testada uma metodologia para actualização de mapas de ocupação do solo já existentes, derivados de fotografia aérea, usando uma imagem satélite para posterior modelação com vista à obtenção da cartografia do risco de incêndio actualizada. Os diferentes passos metodológicos na fase da actualização dos mapas de ocupação de solo são: Classificação digital das novas ocupações, Produção do mapa de alterações, Integração de informação auxiliar, Actualização da Cartografia Temática. Para a produção do mapa de alterações a detecção de alterações foi efectuada através de expressões de Álgebra de Mapas. A classificação digital foi realizada com um classificador assistido - Classificador da Máxima Verosimilhança. A integração de informação auxiliar serviu para melhorar os resultados da classificação digital, nomeadamente em termos das áreas ardidas permitindo uma resolução temática mais detalhada. A actualização resultou da sobreposição do mapa das áreas alteradas classificadas com o mapa desactualizado. Como produto obteve-se a Carta de Alterações da Ocupação do Solo com Potencial Influência no Risco de Incêndio actualizada para 2008, base para a fase da Modelação do Risco. A metodologia foi testada no concelho de Viseu, Centro de Portugal. A Carta de Uso e Ocupação do Solo de Portugal Continental para 2007 (COS2007) foi utilizada como carta de referência. A nova carta actualizada para 2008, no concelho de Viseu, apresenta 103 classes temáticas, 1ha de unidade mínima e 90% de precisão global. A modelação do risco de incêndio geralmente é feita através de índices que variam, de forma geral, numa escala qualitativa, tendo como fim possibilitar a definição de acções de planeamento e ordenamento florestal no âmbito da defesa da floresta contra incêndios. Desta forma, as cartas de risco são indicadas para acções de prevenção, devendo ser utilizadas em conjunto com a carta da perigosidade que juntas podem ser utilizadas em acções de planeamento, em acções de combate e supressão. A metodologia testada, neste projecto, para elaboração de cartografia de risco foi, a proposta por Verde (2008) e adoptada pela AFN (2012). Os resultados apresentados vão precisamente ao encontro do que diz respeito no Guia Técnico para Plano Municipal de Defesa da Floresta Contra Incêndios, "O mapa de Risco combina as componentes do mapa de perigosidade com as componentes do dano potencial (vulnerabilidade e valor) para indicar qual o potencial de perda face ao incêndio florestal".
Resumo:
In the stock market, information takes on special relevance, due to the market’s permanent updating and the great fluidity of information existent therein. Just as in any other negotiations, the party with the better information has a bargaining advantage, as it is able to make more advantageous business decisions. However, unlike most other markets, the proper functioning of the stock market is greatly dependent on investors’ trust in the market itself. As such, if there are investors who, due to any condition they possess or office they hold, have access to relevant information which is not accessible to the general public, distrust is bred within the market and, consequently, investment is lessened. Thus, there is a need to prevent those who hold privileged information from using it in abusive ways. In Portugal, abuse of privileged information is set out and punished criminally in Article 378. of the Portuguese Securities Code (‘Código dos Valores Mobiliários’). In this dissertation, I have set out, firstly, to analyze the inherent conditions for there to be a crime of abuse of privileged information; secondly, to analyze two well-known cases, which took place and were decided in other jurisdictions, and attempt to understand how these cases would fall under Article 378. of the Portuguese Securities Code. Whereas the first case, Chiarella v. United States, was scrutinize under Article 378 of the Portuguese Securities Code, in the second, Lafonta v. AMF, the conclusion arrived at was that the crime taken place was different. This analysis allowed, on one hand, the application to a particular case of prerequisites and concepts which were explained, at a first approach, from a more theoretical perspective; on the other hand, it also allowed the further development of specific aspects of the regime, namely the difference between an insider and a tipee, as well as to more clearly set out the limits to the precise character of the information at hand.
Resumo:
As we find in Empire and Multitude, Antonio Negri's political project IS a thoroughly Marxist analysis and critique of global or late capitalism. By modifying and updating Marx's conceptual tools, he is able to provide a clear account of capitalism's processes, its expanding reach, and the revolutionary potential that functions as its motor. By turning to Negri's philosophical works, however, we find that this political analysis is founded on a series of concepts and theoretical positions. This paper attempts to clarify this theoretical foundation, highlighting in particular what I term "ontological constructivism" - Negri's radical reworking of traditional ontology. Opposing the long history of transcendence in epistemology and metaphysics (one that stretches from Plato to Kant), this reworked ontological perspective positions individuals - not god or some other transcendent source - as the primary agents responsible for molding the ontological landscape. Combined with his understanding of kairos (subjective, immeasurable time), ontological constructivism lays the groundwork for opposing transcendence and rethinking contemporary politics.
Resumo:
Imaging studies have shown reduced frontal lobe resources following total sleep deprivation (TSD). The anterior cingulate cortex (ACC) in the frontal region plays a role in performance monitoring and cognitive control; both error detection and response inhibition are impaired following sleep loss. Event-related potentials (ERPs) are an electrophysiological tool used to index the brain's response to stimuli and information processing. In the Flanker task, the error-related negativity (ERN) and error positivity (Pe) ERPs are elicited after erroneous button presses. In a Go/NoGo task, NoGo-N2 and NoGo-P3 ERPs are elicited during high conflict stimulus processing. Research investigating the impact of sleep loss on ERPs during performance monitoring is equivocal, possibly due to task differences, sample size differences and varying degrees of sleep loss. Based on the effects of sleep loss on frontal function and prior research, it was expected that the sleep deprivation group would have lower accuracy, slower reaction time and impaired remediation on performance monitoring tasks, along with attenuated and delayed stimulus- and response-locked ERPs. In the current study, 49 young adults (24 male) were screened to be healthy good sleepers and then randomly assigned to a sleep deprived (n = 24) or rested control (n = 25) group. Participants slept in the laboratory on a baseline night, followed by a second night of sleep or wake. Flanker and Go/NoGo tasks were administered in a battery at 1O:30am (i.e., 27 hours awake for the sleep deprivation group) to measure performance monitoring. On the Flanker task, the sleep deprivation group was significantly slower than controls (p's <.05), but groups did not differ on accuracy. No group differences were observed in post-error slowing, but a trend was observed for less remedial accuracy in the sleep deprived group compared to controls (p = .09), suggesting impairment in the ability to take remedial action following TSD. Delayed P300s were observed in the sleep deprived group on congruent and incongruent Flanker trials combined (p = .001). On the Go/NoGo task, the hit rate (i.e., Go accuracy) was significantly lower in the sleep deprived group compared to controls (p <.001), but no differences were found on false alarm rates (i.e., NoGo Accuracy). For the sleep deprived group, the Go-P3 was significantly smaller (p = .045) and there was a trend for a smaller NoGo-N2 compared to controls (p = .08). The ERN amplitude was reduced in the TSD group compared to controls in both the Flanker and Go/NoGo tasks. Error rate was significantly correlated with the amplitude of response-locked ERNs in control (r = -.55, p=.005) and sleep deprived groups (r = -.46, p = .021); error rate was also correlated with Pe amplitude in controls (r = .46, p=.022) and a trend was found in the sleep deprived participants (r = .39, p =. 052). An exploratory analysis showed significantly larger Pe mean amplitudes (p = .025) in the sleep deprived group compared to controls for participants who made more than 40+ errors on the Flanker task. Altered stimulus processing as indexed by delayed P3 latency during the Flanker task and smaller amplitude Go-P3s during the Go/NoGo task indicate impairment in stimulus evaluation and / or context updating during frontal lobe tasks. ERN and NoGoN2 reductions in the sleep deprived group confirm impairments in the monitoring system. These data add to a body of evidence showing that the frontal brain region is particularly vulnerable to sleep loss. Understanding the neural basis of these deficits in performance monitoring abilities is particularly important for our increasingly sleep deprived society and for safety and productivity in situations like driving and sustained operations.
Resumo:
Despite their growing importance, the political effectiveness of social media remains understudied. Drawing on and updating resource mobilization theory and political process theory, this article considers how social media make “political engagement more probable,” and the determinants of success for online social movements. It does so by examining the mainstreaming of the Canadian “user rights” copyright movement, focusing on the Fair Copyright for Canada Facebook page, created in December 2007. This decentralized, grassroots, social media-focused action – the first successful campaign of its kind in Canada and one of the first in the world – changed the terms of the Canadian copyright debate and legitimized Canadian user rights. As this case demonstrates, social media have changed the type and amount of resources needed to create and sustain social movements, creating openings for new groups and interests. Their success, however, remains dependent on the political context within which they operate.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
Les mouches, Sodome et Gomorrhe et Caligula présentent des divinités parodiant et critiquant les dirigeants politiques de l’Occupation (1940-1944), ainsi que l’usage par les dictateurs des idéologies religieuses traditionnelles dans le but de soumettre l’humanité à des régimes totalitaires. Divinités théâtrales autrefois infaillibles et toutes-puissantes, les figures analysées dans ce mémoire relèvent des remises en question de la divinité et du pouvoir politique du XXe siècle. Notre mémoire comporte trois chapitres examinant les discours de ces figures de la divinité sous des angles dramaturgique, sémiologique, philosophique et pragmatique avec comme point de départ l’hypothèse suivante : tout porte à croire qu’en limitant l’emprise de divinités fictives, et ce, en grande partie à travers les failles dans leurs discours, Sartre, Giraudoux et Camus ont tenté de neutraliser les discours correspondants d’hommes réels dans la conscience collective de l’époque. Les auteurs étudiés ont profondément modifié l’image traditionnelle de la divinité théâtrale en minant sa force langagière et en s’interrogeant sur son identité. Les divinités choisies pour cette étude annoncent la décomposition du personnage ayant lieu après 1950 : elles ont un statut dévalorisé de même qu’un langage à la force perlocutoire diminuée. Sans véritable emprise sur l’humanité, dépendant du théâtre, des simulacres, de l’histrionisme, ainsi que des faiblesses humaines, ces divinités caricaturales s’exposent à compromettre leurs régimes et sont réduites à une influence fortement limitée par la liberté des hommes. En actualisant ces mythes et récits ainsi, Sartre, Giraudoux et Camus ont tenté de discréditer, par extension, les dirigeants européens de l’époque.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Cette recherche avait pour objectif d’analyser les évaluations de programmes d’études en langues de spécialité de 1er cycle universitaire afin de dégager les enjeux et la pertinence de ces formations. Trois questions de recherche sont poursuivies : • Quels établissements d’enseignement supérieur canadiens offrent des programmes d’études professionnalisant intégrant des compétences langagières sur objectifs spécifiques et le savoir-faire professionnel? • Compte tenu de la nature et de la fonction des programmes et des cours de langues de spécialité au sein des établissements d’enseignement supérieur, - quels sont les enjeux principaux ? - quelles sont les recommandations les plus fréquentes dans les rapports des évaluateurs externes ? L’analyse révèle que les enjeux principaux sont l’apport des formations aux besoins d’emploi ; la correspondance aux besoins des bénéficiaires ; l’évaluation systématique et justifiée lors de la prise de décisions ; la révision, mise à jour et évaluation systématique des programmes ; la collaboration interdisciplinaire et interuniversitaire ; l’enseignement des compétences langagières de la discipline professionnelle sous-jacente ; l’enseignement de la perspective interculturelle ; l’objectif constitutif ou instrumental de l’acquisition des langues ; la professionnalisation de la discipline au lieu de la fonction « service » ; la promotion de programmes, de collaborations et d’échanges internationaux ; l’intégration des TIC ; et la certification en langue de spécialité. Les évaluateurs externes recommandent la modernisation et la réorganisation des cours, la mise sur pied des collaborations, l’amélioration des formules et de l’offre des échanges internationaux, l’élaboration des stratégies pour étudier et planifier le lancement des initiatives, la promotion des bénéfices des connaissances langagières auprès des autres disciplines et facultés, la création des stratégies de révision de programme, et la mise en place des dispositifs pour profiter de nouvelles ressources technologiques. Ainsi, dans un premier temps, les résultats permettent d’apporter à la didactique des langues un éclairage sur la valeur de la fonction formative des mécanismes d’évaluation de programme. Dans un deuxième temps, ils apportent aux praticiens un éclairage sur la qualité, la pertinence et les enjeux des formations en langue de spécialité et un éclairage sur l’importance et l’impact des pratiques évaluatives sur les décisions prises.
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
L’asthme professionnel est une maladie fréquente, qui coûte cher, qui touche des travailleurs jeunes, dont le diagnostic est difficile et avec d’importantes conséquences socio-économiques. La prévention occupe une place centrale dans la gestion de l’asthme professionnel, d’un point de vue de santé publique. Ce mémoire de maîtrise présente trois articles rapportant des développements récents en matière de prévention de l’asthme professionnel. Tout d’abord, une revue de la littérature sur les agents sensibilisants de bas poids moléculaire dans l’asthme professionnel entre 2000 et 2010 recense 41 nouveaux agents et insiste sur l’importance de mettre à jour régulièrement les bases de données afin d’améliorer la prévention primaire. Ensuite, basé sur un cas clinique, la deuxième publication présente l’utilité potentielle du modèle d’analyse de risque QSAR (Quantitative Structure-Activity Relationship) dans le processus diagnostique de l’asthme professionnel, notamment lors d’une exposition multiple à des agents sensibilisants. Enfin, le troisième article présente la performance en milieu clinique du premier questionnaire de dépistage spécifique à l’asthme professionnel. Un modèle simple associant 8 items du questionnaire, l’âge des travailleurs et leur durée d’exposition professionnelle permet de discriminer 80% des 169 sujets adressés pour suspicion d’asthme professionnel. Un tel modèle pourrait être intégré dans les programmes de surveillance médicale qui constituent la base de la prévention secondaire. Ces trois publications insistent sur les possibilités d’explorer de nouveaux outils préventifs dans le domaine de l’asthme professionnel, outils qui ouvrent des perspectives de développements futurs dont les implications cliniques et socio-économiques peuvent être importantes.
Resumo:
Dans le contexte actuel du vieillissement de la population, il importe de s’intéresser aux changements qui surviennent avec l’avancement en âge. Le vieillissement s’accompagne de modifications pour différentes fonctions cognitives, dont la mémoire de travail (MdeT), un système permettant le maintien temporaire et la manipulation d’une petite quantité d’informations. Les travaux de cette thèse portent sur le vieillissement normal de la MdeT et des fonctions de contrôle attentionnel (FCA) qui la sous-tendent (l’alternance, l’inhibition et la mise à jour). D’abord, la première étude (Chapitre II) visait à préciser l’effet du vieillissement normal sur la MdeT et sur chacune des FCA qui la sous-tendent. Elle avait également pour but d’identifier les FCA qui contribuent à la réalisation de différentes tâches de MdeT, et si cette contribution diffère selon le groupe d’âge. Des tâches mesurant chacune des FCA ainsi que des tâches de MdeT ont été administrées à des personnes âgées et à des jeunes adultes. Les analyses contrôlant pour le ralentissement cognitif ont révélé que les habiletés d’alternance et de mise à jour sont préservées chez les personnes âgées, mais que l’inhibition est atteinte comparativement aux jeunes adultes. Les analyses ont également montré que l’impact du vieillissement sur la MdeT dépend de la tâche utilisée. Enfin, les résultats ont indiqué que la contribution des FCA à la MdeT dépend à la fois de la tâche de MdeT et du groupe d’âge. En particulier, la mise à jour contribue davantage à la MdeT des personnes âgées qu’à celle des jeunes, ce qui pourrait refléter une tentative de compensation. La seconde étude (Chapitre III) avait pour objectif de caractériser la variabilité interindividuelle au niveau des FCA, pour les personnes âgées et pour les jeunes adultes. Des analyses hiérarchiques en grappes réalisées sur les habiletés d’alternance, d’inhibition et de mise à jour, ont permis de déterminer si différents profils de contrôle attentionnel étaient présents. L’étude cherchait également à déterminer si les individus appartenant à des profils de contrôle attentionnel distincts diffèrent quant à certaines variables intellectuelles ou de santé. Les analyses ont mis en évidence trois profils de contrôle attentionnel distincts parmi les personnes âgées, l’inhibition étant une FCA critique pour distinguer entre les trois sous-groupes. Trois profils de contrôle attentionnel ont également été identifiés chez les jeunes adultes, et ces profils étaient caractérisés par moins de variabilité intra-individuelle que ceux des âgés. Les analyses ont par ailleurs montré que les profils de contrôle attentionnel se distinguent sur certaines variables intellectuelles et de santé. Les implications théoriques et cliniques de ces résultats seront discutées en fin de thèse (Chapitre IV).