60 resultados para Cartografia Digital Aplicada a Mapas Históricos
Resumo:
A história dos Censos no Brasil mostra que a preocupação com a componente territorial em levantamentos estatísticos, surgiu no recenseamento de 1940, quando, pela primeira vez, o IBGE procurou retratar aspectos da realidade geográfica, de interesse para a operação de coleta, em bases cartográficas, uma tarefa complexa devido à grande extensão do território brasileiro e principalmente no que se refere à qualidade do material cartográfico disponível à época. Atualmente crescem as demandas em nosso país, por informações cada vez mais detalhadas e geograficamente posicionadas. Governadores e prefeitos, órgãos de planejamento municipais e estaduais, investidos de maior autonomia e de novas responsabilidades após a Constituição de 1988, dependem hoje como nunca dos censos para definirem suas políticas públicas, com base em informações atualizadas sobre a população sob suas jurisdições. Entretanto, as demandas por informações agregadas à posição também vêm de outras esferas, que vão do setor não-governamental e privado ao governo federal, fazendo com que muito aumentasse a relevância dos censos e por conseqüência os resultados das pesquisas. Para atender a grande demanda, o IBGE vem continuamente aperfeiçoando o que denominamos de Base Territorial, que é um sistema integrado de informações de natureza geográfica e alfanumérica e se constitui no principal requisito para a garantia da adequada cobertura das operações de levantamento censitário. Face a este novo cenário, o IBGE iniciou a elaboração de mapas da base territorial em meio digital, durante as ações preparatórias para o Censo 2000, se deparando com as dificuldades de integração das áreas urbanas e rurais e a baixa qualidade dos insumos de mapeamento em escala cadastral, disponível nas áreas menos desenvolvidas, pois a Instituição não é produtora de mapeamento em escala cadastral. A metodologia proposta visa melhorar a qualidade dos Mapas de Setores Urbanos MSU, com a utilização de imagens Google Earth, a partir software MicroStation 95, periféricos e aplicativos de conversão disponíveis no IBGE, com o estabelecimento de uma nova rotina de trabalho para produção e substituição dos mapas de setores urbanos, de forma a garantir uma maior representatividade territorial dos dados estatísticos para divulgação.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.
Resumo:
O presente estudo aborda a caracterização quimioestratigráfica da Formação Irati (Permiano da Bacia doParaná), bem como a avaliçãodo potencial gerador. Foi realizada coleta sistemática de amostras de testemunho do poço SC-20-RS, para as quais foram realizadas análisesdos teores de COT, S e RI,Pirólise Rock-Eval e de Biomarcadores. Com base nesses dados,nove intervalos quimioestratigráficos (designados de A-I a partir da base) foram definidos nos 57,7 metros de espessura.Com base nos dados de biomarcadores obtidos pela cromatografia liquida e gasosa foi possível fazer um estudo mais detalhado da variação ambiental e input da matéria orgânica, e identificar como foi o ambiente deposicionaldo intervalo de maior potencial gerador da Bacia do Paraná. O Membro Assistência, desta formação, caracterizado por ter sido depositado em ambiente restrito, possui o intervalo mais promissor (Intervalo E), que compreende uma seção de cerca de 5 metros de espessura, nota-se que há uma maior preservação da matéria orgânica rica em hidrogênio(Tipo II) e aumento do COT% quando, o ambiente torna-se menos restrito, e a salinidade do ambiente diminui o que também foi identificado através dos biomarcadores. A Formação Irati constitui a fonte de folhelhos betuminosos utilizados pela Petrobrás para a obtenção industrial de óleo, gás, enxofre e subprodutos derivados a partir do processo de industrialização dessas rochas. É também uma das principais geradoras dos indícios de petróleo encontrados na Bacia do Paraná. Assim, a obtenção de dados que possam agregar conhecimentos sobre esta formação será sempre de extrema importância
Resumo:
Esta dissertação visa levantar as possibilidades de uso da Geomática no ambiente de interatividade do Sistema Brasileiro de TV Digital Terrestre (SBTVD), definido pelo Decreto Presidencial 5.820, de 29 de Junho de 2006. O produto desta dissertação compreende a implementação de um Atlas, que terá como seu maior objetivo, o auxílio ao processo pedagógico e de Educação à distância (EAD), democratizando o conhecimento da Cartografia. A metodologia de desenvolvimento terá como base o estudo do município do Rio de Janeiro e como público alvo, professores e jovens de 8 a 12 anos de idade. Entretanto, poderá ser facilmente adaptado para outras regiões e diferentes níveis educacionais. No estudo foram utilizados os fundamentos da Geomática, com suas origens estruturais baseadas em uma natureza multidisciplinar, que é ponto de convergência da Informática, de Geografia, do Planejamento Urbano, das Engenharias, das Estatísticas e das Ciências do Ambiente, focadas em fases de produção definidas e divididas em: Coleta, Análise, Distribuição e Uso. Nesse contexto estudaremos como a Cartografia e o SBTVD terrestre vão se incorporar tecnologicamente na distribuição desses dados.
Resumo:
Este trabalho aborda a aplicação da Geomática no apoio às ações de rápida resposta às emergências ambientais passíveis de ocorrência, nas rodovias do País, por incidentes com produtos perigosos. A cadeia logística nacional de infraestrutura de transporte de carga está apoiada, principalmente, no modal rodoviário, que é responsável por cerca de 60% do volume total transportado. Seguindo essa tendência, a maioria dos produtos perigosos também é transportada através de estradas. Nessas operações, apesar de todas as medidas de segurança empregadas, tanto na embalagem quanto no manuseio, há sempre a possibilidade da ocorrência de incidentes com esse tipo de carga, no deslocamento entre o ponto de partida e o destino final. Diante dessas potenciais ameaças, ficam evidentes os riscos à integridade física e patrimonial das populações lindeiras, bem como ao meio ambiente, no tocante à qualidade das águas superficiais e subterrâneas, do solo e do ar. Este trabalho sugere, com base na integração dos recursos tecnológicos do Sensoriamento Remoto, do Sistema de Posicionamento Global-GPS e do Geoprocessamento, implantar um sistema de informações georreferenciadas que proporcione os elementos necessários às ações de rápida resposta a esses eventos. A estrutura proposta, denominada Bureau de Informações Territoriais, está moldada para proporcionar uma solução para os problemas relacionados com o posicionamento na superfície terrestre, e que engloba os conceitos da Geomática, através da aplicação das suas quatro etapas básicas: coleta de dados, análise de dados, distribuição da informação e uso da informação. Assim, atendendo ao princípio da mobilidade, o projeto visa, ainda, a disponibilizar na tela de um laptop as informações necessárias ao planejamento e à execução das ações, no menor tempo possível. Por outro lado, considerando que o Bureau também proporciona às organizações que participam das ações de combate aos incidentes rodoviários com produtos perigosos as informações necessárias, através de uma conexão à Internet, espera-se a maximização dos benefícios do planejamento das ações preventivas e corretivas de resposta aos sinistros, assim como a minimização dos efeitos desse tipo de evento sobre a população, as propriedades e o meio ambiente.
Resumo:
Esta dissertação tem como objetivo principal apresentar aos professores a matemática que é utilizada em diversas atividades da indústria do petróleo para serem apresentadas em sala de aula como aplicações práticas de diversos conceitos que são ministrados desde o ensino fundamental até o superior. Assim, possui o intuito de desenvolver no aluno a percepção da importância de se aprender matemática, criando um estímulo a mais em seus estudos. O trabalho se refere especificamente ao Terminal Aquaviário da Baía de Guanabara (TABG), pertencente à empresa de petróleo Petrobras Transporte S/A (TRANSPETRO), no qual labora o autor. São apresentados os diversos cálculos utilizados nas variadas atividades do dia a dia do TABG. Por fim, são sugeridas algumas atividades que podem ser aplicadas em sala de aula
Resumo:
Os aços inoxidáveis correspondem a aços com diferenças de composição e microestrutura. Desta forma, o comportamento em corrosão é consequentemente diferente. Para avaliar este aspecto, aços com PREN variando de aproximadamente 11 a 35% foram analisados por curvas de polarização. A motivação principal desse trabalho foi avaliar o comportamento de cada aço inoxidável com uso de diferentes técnicas (impedância eletroquímica e circuitos elétricos equivalentes) e também na nova técnica de mapas de impedância, da influência do PREN na corrosão em meio de 3,5% NaCl a 25C. A partir dessas curvas, os potenciais de pites e de densidade de corrente de corrosão foram obtidos. Além disto, foram empregados mapas de diagrama de impedância eletroquímica para visualizar o efeito do potencial aplicado, desde o potencial catódico até além do potencial de pite desses aços. Pôde-se observar que o módulo de impedância se reduz abruptamente quando surge o pite. Ademais, há uma alteração do ângulo característico para frequências da ordem de 1 kHz. Para dois aços inoxidáveis, UNS S30400 e UNS S31600, foram utilizados os diagramas de impedância obtidos dos mapas e estimados a evolução dos parâmetros relacionados a um circuito elétrico equivalente para potenciais aplicados.
Resumo:
A aposta desta pesquisa é problematizar o ensino de História sob a perspectiva da invenção. Para tanto, utiliza-se o método da cartografia (PASSOS; KASTRUP; ESCÓSSIA, 2009) e a pesquisa intervenção (AGUIAR; ROCHA, 2007; LOURAU, 1993; PAULON, 2005). A ideia é colocar em análise práticas que envolvem o ensino de História, utilizando-se mapas e linhas forjadas por meio de oito cenas criadas no exercício docente de um professor.Conta-se também com importantes intercessores na composição deste trabalho, Foucault (2010), Rancière (2014; 2004) e DIAS (2011, 2012), entre outros, corroboram para movimentar o pensar que envolve as naturalizações pertinentes ao plano mapeado nesta dissertação. Há questões que movem estas páginas: como uma escrita imanente pode enunciar práticas que envolvem um ensino de História? Em que sentido um ato de ensino pode estar inscrito em um apriorismo utilitarista e capacitador? Quais são os cruzamentos existentes entre o ensinar História e a formação inventiva? Quais são as conversas que as cenas estabelecem entre o texto o as concepções pautadas na invenção? O mestre ignorante é um mestre inventivo? A noção do real pode emergir de uma outra noção que não seja binária ou dicotômica? Em que sentido a complexidade de um plano, em suas forças e atravessamentos incontáveis, podem auxiliar na análise de práticas concernentes à abordagem histórica em sala de aula? A preocupação aqui não é responder objetivamente estas perguntas; trata-se de forçar o pensamento a pensar. Mas pensar o quê? Talvez um outro possível, uma vereda talvez não muito usual para as conjecturas que envolvem o ensino de História. Contudo, vale salientar que não se encontra aqui um manual referencial para ajudar professores, longe disto, mas sim a narrativa de experiências forjadas entre a escola e esta pesquisa. Algo que pode vir a explicitar um novo campo visual e experiencial do ensinar História.
Resumo:
Neste trabalho foi utilizado um método matemático para classificar registros de potencial e corrente de ensaios de corrosão na técnica de amperimetria de resistência nula (ZRA). Foi aplicado o método estatístico de múltiplas variáveis simples chamado Análise dos Componentes Principais (PCA), cujo objetivo principal foi identificar padrões nestes dados de ruído eletroquímico. Foram testados o aço carbono UNS G10200, os aços inoxidáveis austenítico UNS S31600 e o superduplex UNS S32750 em meios de ácido sulfúrico (5% H2SO4), cloreto férrico (0,1 mol/L FeCl3) e hidróxido de sódio (0,1% NaOH). Os ensaios foram replicados com oito repetições para se ter reprodutibilidade e conhecimento dos aspectos estatísticos envolvidos. Os resultados mostraram que a análise de componentes principais pode ser utilizada como uma ferramenta para analisar sinais de ruído eletroquímico, identificando os clusters dos comportamentos potencial-tempo, corrente-tempo e acessoriamente identificar os outliersdos registros temporais.
Resumo:
A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.
Resumo:
Essa é uma pesquisa teórico-prática cujo objetivo é investigar as possibilidades criativas na produção de uma videodança, a partir de vivências realizadas durante oito experimentos com integrantes Cia P24 de Dança Contemporânea. Vamos cartografar os processos de subjetivação decorrentes de alguns experimentos práticos envolvendo o corpo, a dança e o vídeo que culminou na criação de uma videodança, intitulada 24. Vamos investigar o processo histórico das modificações nas formas de pensar, agir e sentir na prática da dança, que culminou com o movimento conhecido como pós-modernismo, caracterizado por uma multiplicidade de técnicas e estéticas. Neste período, dançarinos incorporaram a tecnologia audiovisual digital em sua prática. A videodança surge dessa fusão e reflete uma forma de produção de subjetividade contemporânea cujo processo proposto e analisado utiliza como lente teórica as pistas do método cartográfico de Deleuze e Guatarri.
Resumo:
A pesquisa LABORAV: uma cartografia da produção audiovisual na Faculdade de educação da Baixada Fluminense, tem como objetivo cartografar os efeitos das tecnologias de informação e comunicação, com ênfase no audiovisual, inseridas no ambiente educacional, e verificar se a produção de vídeo nas escolas pode apresentar-se como um contraponto à ideia de unificação do ambiente cultural vinda dos meios de comunicação de massa que predominaram no século XX. Vamos experimentar a produção audiovisual como algo capaz de produzir novos territórios existenciais a partir de processos de singularização. Nosso objeto de estudo são as atividades realizadas no Laborav, o Laboratório de Recursos Audiovisuais da Faculdade de Educação da Baixada Fluminense. Estamos observando de que modo os integrantes do grupo que participam das atividades do Laborav se apropriam dos equipamentos de vídeo e a subjetividade produzida nesta relação. Utilizaremos como referencial teórico os filósofos Gilles Deleuze, Felix Guattari, Michel Foucault, Michael Hardt e Antonio Negri entre outros do mesmo campo epistemológico, além da bibliografia técnica da área.
Resumo:
Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.