895 resultados para Thermal Remote Sensing, UHI-Urban Heat Island, LST-Land Surface Temperature, Classificazione, Emissività
Resumo:
Intensive sampling at the coastal waters of the central Red Sea during a period of thermal stratification, prior to the main seasonal bloom during winter, showed that vertical patches of prokaryotes and microplankton developed and persisted for several days within the apparently density uniform upper layer. These vertical structures were most likely the result of in situ growth and mortality (e.g., grazing) rather than physical or behavioural aggregation. Simulating a mixing event by adding nutrient-rich deep water abruptly triggered dense phytoplankton blooms in the nutrient-poor environment of the upper layer. These findings suggest that vertical structures within the mixed layer provide critical seeding stocks that can rapidly exploit nutrient influx during mixing, leading to winter bloom formation.
Resumo:
Single-phase microreactors and micro-heat-exchangers have been widely used in industrial and scientific applications over the last decade. In several cases, operation of microreactors has shown that their expected efficiency cannot be reached either due to non-uniform distribution of reactants between different channels or due to flow maldistribution between individual microreactors working in parallel. The latter problem can result in substantial temperature deviations between different microreactors resulting in thermal run away which could arise from an exothermicreaction. Thus advances in the understanding of heat transfer and fluid flow distribution continue to be crucial in achieving improved performance, efficiency and safety in microstructured reactors used for different applications. This paper presents a review of the experimental and numerical results on fluid flow distribution, heat transfer and combination thereof, available in the open literature. Heat transfer in microchannels can be suitably described by standard theory and correlations, but scaling effects (entrance effects, conjugate heat transfer, viscous heating, and temperature-dependent properties) have often to be accounted for in microsystems. Experiments with single channels are in good agreement with predictions from the published correlations. The accuracy of multichannel experiments is lower due to flow maldistribution. Special attention is devoted to theoretical and experimental studies on the effect of a flow maldistribution on the thermal and conversion response of catalytic microreactors. There view concludes with a set of design recommendations aimed at improving the reactor performance. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Systematic experiments have been carried out on the thermal and rheological behaviour of the ionic liquid, 1-butyl-3-methylimidazolium bis{(trifluoromethyl)sulfonyl} imide, [C(4)mim][NTf2], and, for the first time, on the forced convective heat transfer of an ionic liquid under the laminar flow conditions. The results show that the thermal conductivity of the ionic liquid is similar to 0.13 W m(-1) K-1, which is almost independent of temperature between 25 and 40 degrees C. Rheological measurements show that the [C(4)mim][NTf2] liquid is a Newtonian fluid with its shear viscosity decreasing with increasing temperature according to the exponential law over a temperature range of 20-90 degrees C. The convective heat transfer experiments demonstrate that the thermal entrance length of the ionic liquid is very large due to its high viscosity and low thermal conductivity. The convective heat transfer coefficient is observed to be much lower than that of distilled water under the same conditions. The convective heat transfer data are also found to fit well to the convectional Shah's equation under the conditions of this work. (C) 2007 Elsevier Inc. All rights reserved.
Resumo:
A novel numerical technique is proposed to model thermal plasma of microseconds/milliseconds time-scale effect. Modelling thermal plasma due to lightning strike will allow the estimation of electric current density, plasma pressure, and heat flux at the surface of the aircraft structure. These input data can then be used for better estimation of the mechanical/thermal induced damage on the aircraft structures for better protection systems design. Thermal plasma generated during laser cutting, electric (laser) welding and other plasma processing techniques have been the focus of many researchers. Thermal plasma is a gaseous state that consists from a mixture of electrons, ions, and natural particles. Thermal plasma can be assumed to be in local thermodynamic equilibrium, which means the electrons and the heavy species have equal temperature. Different numerical techniques have been developed using a coupled Navier Stokes – Heat transfer – Electromagnetic equations based on the assumption that the thermal plasma is a single laminar gas flow. These previous efforts focused on generating thermal plasma of time-scale in the range of seconds. Lighting strike on aircraft structures generates thermal plasma of time-scale of milliseconds/microseconds, which makes the previous physics used not applicable. The difficulty comes from the Navier-Stokes equations as the fluid is simulated under shock load, this introducing significant changes in the density and temperature of the fluid.
Resumo:
Organic Rankine Cycle (ORC) is the most commonly used method for recovering energy from small sources of heat. The investigation of the ORC in supercritical condition is a new research area as it has a potential to generate high power and thermal efficiency in a waste heat recovery system. This paper presents a steady state ORC model in supercritical condition and its simulations with a real engine’s exhaust data. The key component of ORC, evaporator, is modelled using finite volume method, modelling of all other components of the waste heat recovery system such as pump, expander and condenser are also presented. The aim of this paper is to investigate the effects of mass flow rate and evaporator outlet temperature on the efficiency of the waste heat recovery process. Additionally, the necessity of maintaining an optimum evaporator outlet temperature is also investigated. Simulation results show that modification of mass flow rate is the key to changing the operating temperature at the evaporator outlet.
Resumo:
Contemporary architecture has tended to increase envelope insulation levels in an unceasing effort to reduce U-values. Traditional masonry architecture in contrast was devoid of insulation, except for the inherent insulative nature of vernacular materials. Also the consistency of the outer membrane of the building skin diminished any impact due to bridging. In contemporary highly insulated walls bridges are numerous due to the necessity to bind inner and outer structural skins through insulation layers. This paper examines thermal bridging in an example of contemporary façade design and compares it with an example of traditional vernacular architecture currently being researched which is characterized by a lack of bridging elements. Focus is given to heavy weight materials of high thermal mass, which appropriately for passive architecture help moderate fluctuations in internal temperature. In an extensive experimental study samples of highly insulated precast concrete sandwich panels and lime rendered masonry walls are tested in a guarded hot-box. The building construction methods are compared for static and dynamic thermal transmittance, via heat flux and surface temperature differential measurements. Focus is given to the differential heat loss due to the thermal bridging in the sandwich panels and its associated impact on overall heat loss relative to traditional masonry construction.
Resumo:
Unsteady coherent structures and turbulent heat transfer in a film cooling flow is studied by using detached eddy simulation (DES). Detailed computations for an inclined jet in crossflow by a single row of 35 degree round holes on a flat plate were performed at blowing ratios of 0.5 and 1.0, and a density ratio of 2.0. The correlation between the coherent vortical structures and the unsteady heat transfer is carefully examined. The instantaneous flow fields and heat transfer distributions are found to be characterized by the formation of large coherent vortical structures. These structures enhance the thermal mixing process and turbulent heat transfer to the wall. From the inspection of both unsteady adiabatic film cooling effectiveness and heat transfer coefficient, these two are found to have substantial local fluctuations due to the large unsteadiness of coherent structures. The fluctuation of the adiabatic effectiveness and heat transfer coefficient, for example, can be as high as 15 and 50 percent of the time-mean value, respectively. It could result in the detrimental effect on film cooling performance.
Resumo:
Hemp-lime concrete is a sustainable alternative to standard building wall materials, with low associated embodied energy. It exhibits good hygric, acoustic and thermal properties, making it an exciting, sustainable building envelope material. When cast in temporary shuttering around a timber frame, it exhibits lower thermal conductivity than concrete, and consequently achieves low U-values in a primarily mono-material wall construction. Although cast relatively thick hemp-lime walls do not generally achieve the low U-values stipulated in building regulations. However assessment of its thermal performance through evaluation of its resistance to thermal transfer alone, underestimates its true thermal quality. The thermal inertia, or reluctance of the wall to change its temperature when exposed to changing environmental temperatures, also has a significant impact on the thermal quality of the wall, the thermal comfort of the interior space and energy consumption due to space heating. With a focus on energy reduction in buildings, regulations emphasise thermal resistance to heat transfer with only less focus on thermal inertia or storage benefits due to thermal mass. This paper investigates dynamic thermal responsiveness in hemp-lime concrete walls. It reports the influence of thermal conductivity, density and specific heat through analysis of steady state and transient heat transfer, in the walls. A novel hot-box design which isolates the conductive heat flow is used, and compared with tests in standard hot-boxes. Thermal diffusivity and effusivity are evaluated, using experimentally measured conductivity, based on analytical relationships. Experimental results evident that hemp-lime exhibits high thermal inertia. They show the thermal inertia characteristics compensate for any limitations in the thermal resistance of the construction material. When viewed together the thermal resistance and mass characteristics of hemp-lime are appropriate to maintain comfortable thermal indoor conditions and low energy operation.
Resumo:
A desmaterialização da economia é um dos caminhos para a promoção do desenvolvimento sustentável na medida em que elimina ou reduz a utilização de recursos naturais, fazendo mais com menos. A intensificação dos processos tecnológicos é uma forma de desmaterializar a economia. Sistemas mais compactos e mais eficientes consomem menos recursos. No caso concreto dos sistemas envolvendo processo de troca de calor, a intensificação resulta na redução da área de permuta e da quantidade de fluido de trabalho, o que para além de outra vantagem que possa apresentar decorrentes da miniaturização, é um contributo inegável para a sustentabilidade da sociedade através do desenvolvimento científico e tecnológico. O desenvolvimento de nanofluidos surge no sentido de dar resposta a estes tipo de desafios da sociedade moderna, contribuindo para a inovação de produtos e sistemas, dando resposta a problemas colocados ao nível das ciências de base. A literatura é unânime na identificação do seu potencial como fluidos de permuta, dada a sua elevada condutividade, no entanto a falta de rigor subjacente às técnicas de preparação dos mesmos, assim como de um conhecimento sistemático das suas propriedades físicas suportado por modelos físico-matemáticos devidamente validados levam a que a operacionalização industrial esteja longe de ser concretizável. Neste trabalho, estudou-se de forma sistemática a condutividade térmica de nanofluidos de base aquosa aditivados com nanotubos de carbono, tendo em vista a identificação dos mecanismos físicos responsáveis pela condução de calor no fluido e o desenvolvimento de um modelo geral que permita com segurança determinar esta propriedade com o rigor requerido ao nível da engenharia. Para o efeito apresentam-se métodos para uma preparação rigorosa e reprodutível deste tipo de nanofluido assim como das metodologias consideradas mais importantes para a aferição da sua estabilidade, assegurando deste modo o rigor da técnica da sua produção. A estabilidade coloidal é estabelecida de forma rigorosa tendo em conta parâmetros quantificáveis como a ausência de aglomeração, a separação de fases e a deterioração da morfologia das nanopartículas. Uma vez assegurado o método de preparação dos nanofluídos, realizou-se uma análise paramétrica conducente a uma base de dados obtidos experimentalmente que inclui a visão central e globalizante da influência relativa dos diferentes fatores de controlo com impacto nas propriedades termofísicas. De entre as propriedades termofísicas, este estudo deu particular ênfase à condutividade térmica, sendo os fatores de controlo selecionados os seguintes: fluido base, temperatura, tamanho da partícula e concentração de nanopartículas. Experimentalmente, verificou-se que de entre os fatores de controlo estudados, os que maior influência detêm sobre a condutividade térmica do nanofluido, são o tamanho e concentração das nanopartículas. Com a segurança conferida por uma base de dados sólida e com o conhecimento acerca da contribuição relativa de cada fator de controlo no processo de transferência de calor, desenvolveu-se e validou-se um modelo físico-matemático com um caracter generalista, que permitirá determinar com segurança a condutividade térmica de nanofluidos.
Resumo:
Ecological studies that examine species-environment relationships are often limited to several meteorological parameters, i.e. mean air temperature, relative humidity, precipitation, vapour pressure deficit and solar radiation. The impact of local wind, its speed and direction are less commonly investigated in aerobiological surveys mainly due to difficulties related to the employment of specific analytical tools and interpretation of their outputs. Identification of inoculum sources of economically important plant pathogens, as well as highly allergenic bioaerosols like Cladosporium species, has not been yet explored with remote sensing data and atmospheric models such as Hybrid Single Particle Lagrangian Integrated Trajectory (HYSPLIT). We, therefore, performed an analysis of 24 h intra-diurnal cycle of Cladosporium spp. spores from an urban site in connection with both the local wind direction and overall air mass direction computed by HYSPLIT. The observational method was a volumetric air sampler of the Hirst design with 1 h time resolution and corresponding optical detection of fungal spores with light microscopy. The atmospheric modelling was done using the on-line data set from GDAS with 1° resolution and circular statistical methods. Our results showed stronger, statistically significant correlation (p ≤ 0.05) between high Cladosporium spp. spore concentration and air mass direction compared to the local wind direction. This suggested that a large fraction of the investigated fungal spores had a regional origin and must be located more than a few kilometers away from the sampling point.
Resumo:
Nas últimas décadas o aumento da expansão das áreas urbanas conduziu a rápidas mudanças nos ambientes urbanos. Estas mudanças necessitam de uma observação e compreensão, por forma a permitir a monitorização e avaliação do processo de planeamento urbano. A utilização de dados obtidos por Deteção Remota (DR), aliada aos Sistemas de Informação Geográfica (SIG), surge como uma fonte de informação válida para modelar, recolher, armazenar, exibir e analisar os sistemas urbanos. Neste contexto, a informação planimétrica e altimétrica recolhida por sensores remotos pode ser explorada por forma a extrair informação acerca do uso e ocupação do solo, e apresenta-la sob a forma de indicadores para apoio à decisão. Um sistema de indicadores urbanos baseados em dados obtidos por DR constitui uma ferramenta para as cidades transmitirem os diferentes riscos urbanos bem como na promoção de medidas e estratégias para um eficiente planeamento urbano. A dissertação de mestrado proposta tem como principal objetivo a criação de um sistema de indicadores urbanos que caracterize a cidade de Lisboa ao nível das áreas verdes e do volume construído. Assim, de forma a atingir o objetivo principal é desenvolvida uma metodologia baseada em informação altimétrica e planimétrica que permite analisar as áreas verdes da cidade de Lisboa bem como o volume construído. A informação altimétrica urbana (3D) é derivada de dados cartográficos oficiais (curvas de nível que originam um Modelo Digital de Terreno) e informação recolhida por LiDAR (Light Detection And Ranging) (que representa o Modelo Digital de Superfície). A informação 2D é extraída de uma imagem do satélite de alta resolução Worldview-2 de 2010, com um pixel de 0,5m, do concelho de Lisboa, através de técnicas de processamento digital de imagem. A informação recolhida permite, por um lado a modelação 3D do edificado, e por outro a quantificação 2D da cobertura vegetal em meio urbano. Posteriormente, num ambiente SIG, a informação extraída é cruzada com dados censitários e dados de uso e ocupação do solo. A análise ocorre tendo por base as Subsecções Estatísticas (SSE) da cidade de Lisboa (INE, 2011) e o sistema proposto inclui assim a extração de indicadores divididos tematicamente em indicadores de área e indicadores de volume. Os resultados obtidos permitem relacionar as áreas verdes, a população e o volume construído.
Resumo:
Central Governor Model (CGM) suggests that perturbations in the rate of heat storage (AS) are centrally integrated to regulate exercise intensity in a feed-forward fashion to prevent excessive thermal strain. We directly tested the CGM by manipulating ambient temperature (Tam) at 20-minute intervals from 20°C to 35°C, and returning to 20°C, while cycling at a set rate of perceived exertion (RPE). The synchronicity of power output (PO) with changes in HS and Tam were quantified using Auto-Regressive Integrated Moving Averages analysis. PO fluctuated irregularly but was not significantly correlated to changes in thermo physiological status. Repeated measures indicated no changes in lactate accumulation. In conclusion, real time dynamic sensation of Tam and integration of HS does not directly influence voluntary pacing strategies during sub-maximal cycling at a constant RPE while non-significant changes in blood lactate suggest an absence of peripheral fatigue.
Resumo:
Remote sensing techniques involving hyperspectral imagery have applications in a number of sciences that study some aspects of the surface of the planet. The analysis of hyperspectral images is complex because of the large amount of information involved and the noise within that data. Investigating images with regard to identify minerals, rocks, vegetation and other materials is an application of hyperspectral remote sensing in the earth sciences. This thesis evaluates the performance of two classification and clustering techniques on hyperspectral images for mineral identification. Support Vector Machines (SVM) and Self-Organizing Maps (SOM) are applied as classification and clustering techniques, respectively. Principal Component Analysis (PCA) is used to prepare the data to be analyzed. The purpose of using PCA is to reduce the amount of data that needs to be processed by identifying the most important components within the data. A well-studied dataset from Cuprite, Nevada and a dataset of more complex data from Baffin Island were used to assess the performance of these techniques. The main goal of this research study is to evaluate the advantage of training a classifier based on a small amount of data compared to an unsupervised method. Determining the effect of feature extraction on the accuracy of the clustering and classification method is another goal of this research. This thesis concludes that using PCA increases the learning accuracy, and especially so in classification. SVM classifies Cuprite data with a high precision and the SOM challenges SVM on datasets with high level of noise (like Baffin Island).
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.