914 resultados para Conversores digitais-analogicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho acadêmico, apresentado para obtenção do título de mestre, fez-se uma abordagem sobre o novo modelo de oitiva de pessoas em juízo, que grava as inquirições verbais em vez de convertê-las em texto ditado que é registrado em papel, tal como ocorre no modelo tradicional. O problema que o trabalho buscou enfrentar é se o novo modelo deveria ser adotado pelo Judiciário Brasileiro, em substituição ao modelo tradicional, por possibilitar ganho real de tempo nas audiências e ter melhor custo-benefício. Teve-se como objetivo geral fazer a análise do novo modelo de oitiva de pessoas e como objetivos específicos identificar as vantagens e as desvantagens da gravação dos depoimentos, fazer uma comparação entre os dois modelos (o tradicional e o novo) e investigar se o novo modelo se encaixa à celeridade exigida do Judiciário. O método usado para enfrentar o problema foi o indutivo. Realizou-se pesquisa de campo por meio de questionário enviado aos juízes do Estado de Rondônia. Após a abordagem teórica e o resultado da pesquisa, foi possível concluir que o novo modelo deve substituir o modelo tradicional por trazer celeridade ao processo e melhor custo-benefício. O trabalho também constatou a conveniência de cada Poder Judiciário disponibilizar serviços de transcrição, próprios ou terceirizados, para que o novo modelo seja adotado sem resistência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Os colesteatomas podem ocorrer tanto em crianças como em adultos, porém nas crianças pareceriam ter um crescimento mais agressivo e extenso. A atividade das colagenases poderia explicar este perfil. Objetivo: Comparar, histologicamente, a perimatriz de colesteatomas adquiridos de crianças com os de adultos. Métodos: Foram estudados 74 colesteatomas, 35 pediátricos, coletados em cirurgias otológicas, fixados em formol 10% e processados pelas técnicas histológicas habituais. Foram preparadas uma lâmina em Hematoxilina-Eosina (HE) e outra em Picrossírios, de cada amostra, e analisadas ao microscópio óptico. A leitura foi “cega”, efetuada por meio de imagens digitais, no software ImagePro Plus. A análise estatística foi realizada através dos coeficientes de correlação de Pearson e Spearman e dos testes t e χ2, sendo considerados como estatisticamente significativos os valores de P<0,05. Resultados: Dos 74 colesteatomas coletados, 17 - sete do grupo pediátrico e dez do adulto - foram excluídos por não terem presença de matriz e perimatriz nas lâminas processadas. A média±dp da idade, no grupo pediátrico, foi de 12,85±3,63; e no adulto, 33,69±13,10. Na análise histológica, o número médio de camadas de células epiteliais da matriz foi igual a oito, nos dois grupos, 60% das amostras apresentavam inflamação, de moderada a acentuada; quanto à fibrose, nas crianças, 71,4% e nos adultos, 62,1%; o granuloma apareceu em 10,7% e 13,8%, respectivamente; a presença de epitélio cubóide simples delimitando a perimatriz foi encontrada em 29% dos infantis e 14% dos adultos, entretanto, nenhuma dessas variáveis apresentou diferença estatisticamente significativas quando comparadas por faixa etária (P>0,05). Quanto à espessura da perimatriz, no grupo pediátrico, as medianas (intervalo interquartil) dos parâmetros foram: média=79 (41 a 259); mediana=77 (40 a 265); soma=1.588 (831 a 5.185); delta=82 (44 a 248); mínimo=53 (16 a 165) e máximo=127 (64 a 398); já no grupo de adultos foram: média=83 (26 a 174); mediana=68 (30 a 181); soma=1.801 (558 a 3.867); delta=92 (45 a 190); mínimo=27 (12 a 100) e máximo=136 (53 a 280). O coeficiente de Spearman mostrou correlação inversa, moderada, entre a espessura da perimatriz e a idade; também houve correlação, forte, entre a espessura da perimatriz e o número de camadas da matriz, porém não houve correlação entre essa com a idade. Conclusão: Histologicamente, a perimatriz de colesteatomas adquiridos, de crianças e adultos, vista à microscopia óptica, apresenta-se como um tecido conjuntivo denso de espessura variável (intra e interpacientes), que, por vezes, exibe infiltrado inflamatório linfoplasmocitário e/ou tecido de granulação e reação de corpo estranho; em alguns casos é delimitada em plano profundo por epitélio cubóide simples. Há correlação inversa, de fraca a moderada, entre o tamanho da perimatriz, medida em micrômetros e a idade do paciente na data da cirurgia. O grau de inflamação da perimatriz apresenta correlação, de moderada a forte, com a espessura da perimatriz. As espessuras da matriz e da perimatriz estão fortemente correlacionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentemente, os métodos utilizados no processo classificação de imagens, em sua grande maioria, fazem uso exclusivamente dos atributos espectrais. Nesta pesquisa,são introduzidos os atributos espaciais, em particular a textura, no processo de classificação de imagens digitais. As informações de textura são quantificadas pelo método das matrizes de co-ocorrência, proposto por Haralick, e organizadas em um formato similar ao utilizado nas bandas espectrais, gerando desta forma canais de textura. Com a implementação deste atributo em adição aos espectrais, obtêm-se um acréscimo na exatidão obtida no processo de classificação de imagens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi realizado um estudo sobre a situação ambiental numa micro bacia hidrográfica, utilizando o Sensoriamento Remoto e outras fontes como técnica de obtenção e tratamento dos dados. Com o recurso das classificações de imagens digitais, através de um procedimento não-supervisionado e de outro supervisionado, utilizando, respectivamente os métodos da Distância Euclidiana e da Máxima Verossimilhança, foi identificado o uso efetivo aplicado à terra na data de tomada da imagem, de cujo resultado obteve-se um documento cartográfico que representa o uso antrópico da área. Através da identificação das características físicas locais, com base na interpretação visual dos produtos do Sensoriamento Remoto, imagens TM e fotografias aéreas, e de outras fontes, foi feita a identificação do emprego mais adequado a ser aplicado à terra, a qual gerou um outro documento cartográfico representativo. Do cruzamento das informações contidas nas etapas anteriormente descritas, foi realizada uma análise ambiental da área em estudo, a qual também gerou um mapa temático que a representa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Assinatura Digital de Contratos de Câmbio, regulamentada em 2004, é um processo que surge como uma alternativa ao tradicional processo de assinatura manual nos contratos. Este trabalho pretende, através de análise quantitativa da base de dados de um grande banco no Brasil, verificar padrões de comportamento que podem existir nos registros de operações de câmbio assinadas digitalmente, de acordo com o porte da empresa e sua segmentação dentro do Banco. O conceito do mercado de câmbio será analisado, assim como sua estrutura e funcionamento no Brasil. A Assinatura Digital será analisada profundamente, apresentando conceitos imprescindíveis para este processo, como a criptografia, funções hash, certificação digital e infra-estrutura de chaves públicas. Como contribuições do estudo serão apresentadas a importância do processo de assinatura digital na atualidade, o crescimento e a relevância das pequenas e médias empresas no uso da assinatura digital e as diferenças relativas à segmentação das empresas.