950 resultados para Sensores - Ultrassons
Resumo:
Sistemas de controle industriais precisam atender a requisitos temporais para garantir seu correto funcionamento, sendo por isto considerados sistemas tempo-real. Quando tais sistemas são distribuídos, tais como redes de sensores, atuadores e controladores interligados por barramentos de campo, a comunicação desempenha um papel importante no comportamento temporal. Este trabalho propõe uma ferramenta para validar o comportamento temporal da comunicação em um protocolo de barramento de campo, o Foundation Fieldbus. A proposta inclui a especificação de requisitos e a visualização da validação. Pretende-se auxiliar a compreensão do comportamento temporal e possibilitar a depuração de sistemas tempo-real distribuídos. O sistema desenvolvido encontra-se operacional e foi validado em diversos estudos de caso, os quais são descritos no presente trabalho.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.
Resumo:
Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.
Resumo:
Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
Resumo:
Este trabalho descreve um estudo e desenvolvimento de um sensor de dióxido de carbono (CO2), de baixo custo, para monitoramento da qualidade do ar em ambientes climatizados. O sensor aqui proposto baseia-se na técnica de absorção em infravermelho não dispersivo (NDIR). Este trabalho avalia alguns métodos já empregados e propõe um modelo alternativo visando uma solução de baixo custo que possa ser incorporada a sistemas de monitoramento e/ou condicionamento existentes, permitindo o controle do teor de CO2. A metodologia inclui o estudo dos diferentes tipos de sensores de CO2, a seleção da técnica mais apropriada para medição, o estudo das alternativas para implementação da técnica selecionada, o desenvolvimento, testes e avaliações da solução. Especificamente desenvolveu-se uma solução em termos de sensor de CO2 que utiliza componentes comerciais, sendo facilmente reprodutível e de custo reduzido. O sensor desenvolvido tem faixa de medição entre 330 a mais de 10000 ppm, com resolução estimada em torno de 20 a 30 ppm, com erro em relação ao padrão menor que 10% da medição ou 150 ppm,o que for maior.
Resumo:
Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).
Resumo:
Entre os minerais, o fósforo é um dos mais limitantes ao crescimento e desenvolvimento vegetal. Como é altamente requerido para os mais diversos processos fisiológicos e celulares, as plantas desenvolveram complexos mecanismos para manejar sua deficiência. As respostas à limitação de fósforo são bem conhecidas, mas sobre a sua percepção e a transdução do sinal pouco se sabe. Os mutantes p9, p23 e p37 estudados neste trabalho são provenientes de uma seleção que busca identificar genes regulatórios envolvidos na sinalização de fósforo. Desta forma, fez-se através da caracterização morfológica, fisiológica e bioquímica destes mutantes condicionais de Arabidopsis thaliana, deficientes quando ácidos nucléicos são a única fonte de fosfato (Pi), a ampliação do conhecimento da rota de sinalização da limitação de Pi. Os fenótipos dos mutantes devem-se à mutação em um gene recessivo para cada mutante, sendo estes complementares. Análises do sistema radicular, acúmulo de amido e antocianinas, teor de Pi livre e do P total e atividade de nucleases em diferentes disponibilidades de fósforo e a avaliação da especificidade dos fenótipos à deficiência de P possibilitaram a criação de hipóteses para a ação dos genes mutados A mutação de p9 causa, provavelmente, alterações na sensibidade às concentrações de Pi, podendo estar relacionada tanto aos sensores da raiz quanto à interação da transdução dos sinais entre o sensor local e o status da planta. Devido à limitação de sementes não foi possível desenvolver hipótese sobre a ação do gene mutado em p23. Enquanto o gene mutado em p37 age primordialmente sobre o elongamento e a divisão das células radiculares, estas respostas podem estar sendo influenciadas pelos níveis de citocinina. Assim, a complexidade da transdução do sinal à limitação de Pi e a interação com outras rotas de sinalização em plantas vasculares evidencia a importância de estudar suas respostas e esclarecer como esses processos são regulados.
Resumo:
Neste trabalho foram realizadas classificações utilizando-se as bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A caracterização espectral dos materiais foi realizada em laboratório utilizando um espectrorradiômetro, e através das bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A transformação dos dados multiespectrais de imagens de sensoriamento remoto é uma maneira de reduzir o volume de dados através da identificação de classes de interesse numa imagem digital. No intuito de verificar condições de melhoramento na classificação de alvos urbanos em imagens digitais, identificados por procedimentos já conhecidos, como a classificação pela Máxima Verossimilhança, escolheu-se um classificador baseado na lógica fuzzy. O classificador utilizado foi o Fuzzy Set Membership classification - Fuzclass, que faz parte de um conjunto de classificadores não-rígidos disponíveis no programa Idrisi 32. Uma vez que informações sobre o desempenho de produtos deste classificador em áreas urbanas são escassas, foram conduzidos ensaios de comparação de resultados obtidos por este classificador com a verdade terrestre, representada por uma imagem de alta resolução espacial do satélite QuickBird. As áreas teste selecionadas desta imagem atendem ao critério de inalterância das condições de ocupação para o intervalo temporal considerado A comparação feita, permite concluir que o classificador apresenta limitações na classificação de áreas urbanas devido ao comportamento espectral semelhante dos materiais que fazem parte dessa cobertura. A utilização de uma classe única para identificar áreas impermeáveis foi a solução adotada para contornar este óbice. O emprego de áreas teste possibilitou acertar a escolha do grau de possibilidade de presença da classe no pixel (PPCP). Uma comparação entre os resultados apresentados na classificação de áreas impermeáveis, com base nos classificadores Máxima Verossimilhança e Fuzclass, demonstrou um desempenho melhor do classificador fuzzy, em função do nível de PPCP ajustado durante a análise comparativa Landsat e Quickbird nas áreas teste. Um procedimento alternativo de estimativa de áreas impermeáveis em bacias urbanas é apresentado no final.
Resumo:
Neste trabalho será feita uma análise da quantidade de pontos de controle para correção geométrica de imagens, mais especificamente, do satélite CBERS-I, utilizando o sensor CCD, através de análises estatísticas para o cálculo da quantidade de pontos e estudo quantitativo através da análise de variância da média dos resíduos obtidos de amostras de tamanhos variados. Os pontos de controle foram coletados com receptor GPS e foi utilizado um modelo polinomial de segunda ordem para a correção geométrica da imagem. Os resultados experimentais obtidos na análise da média para o cálculo da quantidade de pontos mostram que o erro residual tende a se estabilizar para a quantidade de pontos definidos pela estatística. Apresenta-se ao final, considerações iniciais sobre a aplicação desta proposta para diversos outros sensores, permitindo um maior aproveitamento destes na atualização cartográfica e na geração de cartas imagens.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.