37 resultados para classes de capacidade de uso da terra
Resumo:
O presente trabalho tem como objetivo estudar o comportamento mecânico de camadas de um solo residual areno-siltoso reforçado com a adição de fibras de polipropileno distribuídas aleatoriamente na massa de solo, sob carregamento estático, visando o assentamento de fundações superficiais. O estudo se baseou em duas etapas, uma de laboratório e outra de campo. O programa experimental de laboratório consistiu na realização de ensaios triaxiais adensados drenados a fim de se estudar o comportamento do solo residual e de misturas solo-fibra em termos de tensão-deformação-resistência. Foram analisadas tensões confinantes, comprimentos, teores e diâmetros de fibras de polipropileno. Também foi avaliado o comportamento ao longo de ciclos carga-descarga-recarga para o solo reforçado, a influência da velocidade de carregamento, bem como o comportamento do solo residual e do solo-fibra, não somente na umidade ótima e densidade máxima, como também nos ramos seco e úmido da curva de compactação, obtida sob energia Proctor Normal. Na etapa de campo foram construídos aterros experimentais com camadas de solo residual compactado e do mesmo reforçado com fibras, e sobre estes foram executadas provas de carga (placa circular) com o objetivo de avaliar o comportamento carga x recalque de fundações superficiais. Uma comparação entre os resultados de ensaios triaxiais realizados sobre amostras de solo reforçado reconstituídas em laboratório e sobre amostras retiradas em campo é apresentada. A análise global dos resultados permitiu identificar as alterações provocadas pela inclusão aleatória de fibras de polipropileno no solo residual de arenito. Os resultados dos ensaios de placa sobre camadas de solo compactado com e sem reforço fibroso demonstraram um aumento significativo da capacidade de suporte com a inclusão de fibras, além de uma redução considerável dos recalques, quando comparado ao comportamento do solo residual compactado.
Resumo:
Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
O ferrato(VI) de potássio, composto fortemente oxidante, foi testado em uma coluna de absorção de gases a fim de remover o NO presente em gases oriundos de fontes fixas de queima de combustíveis fósseis. O poder oxidativo do ferrato(VI) e seu comportamento através da cinética de decaimento do NO foram avaliados com o propósito de melhor entender a reação de oxidação. O sistema lavador de gases foi constituído por três subsistemas: o primeiro, um cilindro contendo uma mistura de NO/N2 com concentrações de NO de 50 e 98 ppm; o segundo, os lavadores de gases, constituído por dois reatores/lavadores com capacidade de 1.000 mL que foram completados com 600 mL de solução lavadora e com 400 mL de anéis de Rasching de vidro e um terceiro, reator/lavador que continha 400 mL da mesma solução dos demais, sem os anéis; o terceiro subsistema, constituído por equipamentos analisadores de NO e NO2. Os equipamentos de medição foram os da marca Oldham, modelo TX 2000, para NO, com escala de medida de 0-100 ppm NO e TX 2000, para NO2, com escala de medida de 0-30 ppm NO2. O ferrato(VI) de potássio foi obtido via úmida e analisado por volumetria de oxidaçãoredução. Os testes de oxidação foram realizados à temperatura de 25oC ± 0,5oC e pressão de uma atmosfera. Inicialmente, testou-se técnicas padrões de remoção de NO de gases a frio. Hidróxido de sódio e hidróxido de potássio tem sido empregados comercialmente na remoção de NOx. As soluções de hidróxido de potássio e de sódio apresentaram a mesma remoção de NO quando a concentração inicial do NO no gás foi de 50 ppm. A maior eficiência de remoção de NO deu-se para a razão molar de 5 OH / 1 NO em cinco minutos de tempo de detenção, utilizando solução de ferrato(VI): 86% para a concentração inicial de 50 ppm e 85% para a concentração inicial de 98 ppm. Os resultados experimentais mostram que a solução de ferrato(VI) de potássio apresentou eficiência de remoção 25% superior à das outras soluções testadas. Apesar das reações de oxidação do NO serem bastante complexas, em função dos resultados analíticos realizados em termos de nitritos e nitratos, pode -se concluir que o NO é oxidado a NO2 e este passa a NO2 - e NO3 2- em solução, confirmando o mecanismo proposto por diversos autores. A abordagem cinética mostrou que a reação de oxidação pelo íon ferrato(VI) é de primeira ordem em relação ao NO e a constante média de velocidade de reação resultante dos dados experimentais foi de 9,80 x 10-4 s-1. A viabilidade técnica do uso do ferrato(VI) de potássio como oxidante do NOx em torres absorvedoras de gases foi comprovada, pois o composto mostrou-se um eficiente oxidante para o NO nas condições testadas.
Resumo:
O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.
Resumo:
O objetivo do presente estudo foi avaliar, através de Microscopia Eletrônica de Varredura (MEV), a capacidade de remoção da lama dentinária nas regiões cervical, média e apical do canal radicular após a utilização das soluções de EDTA dissódico, trissódico e tetrassódico a 17% e do gel de EDTA a 24% durante a preparação do canal radicular. A amostra consistiu em 100 dentes humanos, monorradiculares, extraídos, aleatoriamente divididos em cinco grupos. Nos grupos experimentais foram utilizados soluções de EDTA dissódico, trissódico e tetrassódico a 17 % e gel de EDTA trissódico a 24%. No grupo controle foi utilizado água destilada. Cada dente foi dividido longitudinalmente e analisado no MEV. As paredes dos canais radiculares foram examinadas nas regiões cervical, média e apical quanto à remoção da lama dentinária, presença de detritos e abertura dos túbulos dentinários. Durante este processo, foram realizadas fotomicrografias com aumento de 2000 vezes. O sistema de classificação utilizado na análise foi: 0 – ausência de lama dentinária, túbulos dentinários abertos e livres de detritos; 1 – lama dentinária moderada, contorno dos túbulos visíveis ou parcialmente preenchidos por detritos; 2 – abundante lama dentinária, sem distinção do contorno dos túbulos. Para a análise estatística foram utilizados os testes não paramétricos de Friedman e Kruskall-Wallis. Os resultados mostraram diferença estatística entre os grupos teste e controle (p=0,01). No entanto, quando comparados entre si, os grupos teste não apresentaram diferença significativa. Foi verificado na comparação entre as regiões cervical, média e apical diferença estatística no grupo que foi utilizado EDTA gel (p=0,01). Neste grupo foi observado que a eficácia de remoção da lama dentinária foi menor na região apical do que nas regiões cervical e média, que não apresentaram diferenças entre si. A maior presença de lama dentinária na região apical foi confirmada ao se reunir todos os grupos em que se utilizou EDTA e comprovar que a região apical apresentava significativamente mais lama dentinária do que as regiões cervical e média (p=0,01). Dessa forma pode-se concluir que as soluções de EDTA dissódico, trissódico e tetrassódico a 17% e o gel de EDTA trissódico a 24% foram eficientes na remoção da lama dentinária e que a região apical do canal radicular apresentou maior presença de lama dentinária do que as regiões cervical e média.
Resumo:
A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.
Resumo:
O conhecimento organizacional vem se convertendo em um dos principais tópicos de interesse dos gestores, uma vez que as organizações passam a compreendê-lo como seu principal recurso e fonte de vantagem competitiva. Assim, a gestão de conhecimento procura identificar e desenvolver o conhecimento coletivo da organização para aumentar a capacidade de inovação e resposta e ajudá-la a competir. Considera-se que o sucesso da gestão de conhecimento depende mais das pessoas do que da tecnologia empregada, ao mesmo tempo em que se reconhece que a disponibilidade de novas tecnologias de informação tem proporcionado grande impulso a estas iniciativas. Esta pesquisa objetiva compreender como a tecnologia de informação está sendo utilizada no suporte a estratégias de gestão de conhecimento em organizações fabricantes de software. Para isto, apresenta um estudo de caso com uma empresa desta área, que analisa o modelo de Hansen et al. de estratégias de gestão de conhecimento e explora algumas lacunas encontradas neste modelo. O resultado da pesquisa é sintetizado na fase final, que apresenta um esquema conceitual sugerindo adições ao modelo original.
Resumo:
O presente trabalho descreve estudos relativos à validação e aperfeiçoamento de uma nova técnica de adsorção em flocos de materiais adsorventes pulverizados e seu uso em reator de leito expandido/fluidizado. A técnica consiste na utilização de polímeros aquo-solúveis para a floculação de suspensões aquosas de materiais adsorventes pulverizados, baseando-se no baixo custo dos mesmos e no fato de que a capacidade de adsorção dos flocos resultantes não é afetada significativamente pelo polímero floculante. O uso da técnica em reator de leito expandido/fluidizado possibilita ainda a vantagem de união dos processos de adsorção e separação sólido-líquido em uma única etapa. Os estudos foram realizados a partir da floculação de carvão ativado e zeólita natural pulverizados, separados e em mistura, para a adsorção de fenol e nitrogênio amoniacal (separados e misturados). Foi realizada uma adequada caracterização dos materiais particulados, incluindo a determinação de distribuição granulométrica, área superficial específica, potencial zeta, dentre outros. Estudos em escala de bancada foram realizados com ambos os poluentes e materiais adsorventes a fim de obter parâmetros de processo (capacidade de adsorção, cinética e concentração de floculante). Estudos em escala semipiloto com um reator de leito expandido/fluidizado de geometria cilíndrico-cônica foram realizados para estudar a adsorção dos poluentes em leito de flocos dos materiais adsorventes (separados e misturados), assim como a regeneração/reciclo do mesmo. A caracterização dos materiais apresentou propriedades semelhantes para ambos (distribuição granulométrica, potencial zeta) e outras distintas para cada um deles (massa específica, área superficial específica) A capacidade de troca catiônica da zeólita natural foi determinada em 1,02 meq NH4 +.g-1 (após homoionização com NaCl). Este material, proveniente do Chile, mostrou um significativo potencial de aplicação como adsorvente de corantes (como o azul de metileno) e, principalmente, de nitrogênio amoniacal. O floculante utilizado na geração dos flocos adsorventes, separados e misturados, foi do tipo poliacrilamida catiônica e sua concentração ótima foi de 4 e 5 mg.g-1, respectivamente. Os resultados obtidos nos estudos em escala de bancada (batelada) mostraram elevada cinética (valor médio de 0,3 min-1) e alta capacidade (valor médio de 13,4 mg NH3-N.g-1) em pH neutro (aproximadamente 6) para a adsorção de nitrogênio amoniacal em zeólita natural pulverizada e floculada. No caso da adsorção de fenol em carvão ativado pulverizado e floculado, foram obtidas uma alta cinética (valor médio de 0,8 min-1) e elevada capacidade (156 mg.g-1). Os dados cinéticos e de equilíbrio foram adequadamente descritos por um modelo cinético para reações reversíveis de primeira ordem e pelas isotermas de Langmuir e Freundlich, respectivamente. Tanto a cinética quanto a capacidade de adsorção não mostraram-se afetadas de forma significativa pelo uso do polímero floculante, sendo observada uma ausência de sinergismo na adsorção dos poluentes devido à mistura dos dois materiais adsorventes, tanto pulverizados quanto floculados. Os resultados obtidos nos estudos em escala semipiloto validaram a utilização de flocos de zeólita natural e carvão ativado pulverizados (não- misturados) em reator de leito expandido/fluidizado na adsorção de nitrogênio amoniacal (11 mg NH3-N.g-1) e fenol (132 mg.g-1), respectivamente, dentro das condições experimentais estabelecidas (taxas de aplicação de 38 e 19 m.h-1, respectivamente) A regeneração/reciclo do leito saturado de flocos mostrou-se viável para o caso da adsorção de nitrogênio amoniacal em zeólita natural, sendo insatisfatória para o leito de carvão ativado saturado em fenol. O uso de leitos mistos mostrou-se eficaz e com vantagens tais como a adsorção de múltiplos poluentes em uma única etapa e a possibilidade de aumento da taxa de aplicação no uso de materiais adsorventes menos densos (carvão ativado) misturados com materiais adsorventes de maior massa específica (zeólita natural). Uma pré-avaliação dos custos operacionais envolvidos na técnica para uso em reator de leito expandido/fluidizado foi realizada, sendo estimados entre 0,32 e 1,48 US$.m-3 (volume de solução sintética de poluente tratada até o ponto de exaustão do leito). Finalmente, são discutidas as potencialidades, vantagens/desvantagens e a viabilidade da nova técnica como processo físico-químico alternativo de adsorção em materiais adsorventes pulverizados.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
O desenvolvimento de novos, e mais eficientes, métodos de classificação de imagem digitais em Sensoriamento Remoto se constitui em uma importante área que tem chamado a atenção de muitos pesquisadores. Nesta área em particular, um problema que freqüentemente surge para a classificação de imagens digitais provenientes de cenas naturais, é a ocorrência de classes espectrais com resposta espectral muito similar. Nestes casos, os sistemas sensores mais comuns e os métodos tradicionais de classificação de imagem apresentam muito baixa precisão ou mesmo falham completamente. Várias abordagens vem sendo propostas na literatura. Uma das possíveis abordagens consiste em fazer uso de informações auxiliares que possuam poder discriminante para as classes sob análise. Esta é a possibilidade explorada nesta dissertação, utilizar-se de dados auxiliares, provenientes de fontes diversas, tais como: temperatura, precipitação, altitude e classes de solo. Estes dados são então combinados com dados provenientes de imagens multiespectrais de acordo com a Teoria de Evidência proposta por Dempster e Shafer. Esta abordagem é testada usando dados de uma área no Estado do Rio Grande do Sul, Brasil, com a finalidade de delimitar a ocorrência da Mata Nativa com Araucária (composta pela conifera Araucaria angustifolia), que é de difícil separação em relação a outras classes espectrais que ocorrem na região, tornando difícil o processo preciso de classificação.
Resumo:
Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Este trabalho tem a finalidade de fornecer os elementos necessários à montagem de um SIG para gerenciamento e controle de obras públicas, tendo como ponto de partida as relacionadas às estradas de terra, portanto na área rural do município, podendo, ser estendido as outras áreas da gestão pública. A preferência pela questão viária dá-se pelo fato dela ter grande apelo econômico e relativa facilidade de aquisição dos planos de informação, quais sejam: malha viária, pontos notáveis, obras de arte, drenagem, relevo e solo. Planos de informação pertinentes à malha viária, aos pontos notáveis e às obras de arte, adquiridos em levantamento de campo com GPS, e drenagem, relevo e solo adquiridos via vetorização de plantas existentes. Através de um programa de apoio à gerência denominado SISGEM - Sistema de Gerência de Estradas Municipais - pode-se obter dados a respeito da produção, produtividade, custos, etc, gerando atributos aos geo objetos dos planos de informação descritos acima, e, desta forma, permitindo o cruzamento de planos de informações vetoriais com os relatórios gerados a partir dos trabalhos realizados.