815 resultados para Modelagem dereservatórios
Resumo:
O crescimento do número de motocicletas nas grandes cidades, em função de fatores como o baixo custo e a alta mobilidade nos centros urbanos, tem sido considerado um importante fator de deterioração da qualidade do ar. Nesse contexto, o monitoramento das emissões gasosas provenientes do escapamento desses veículos é fundamental para o conhecimento da contribuição dessa classe de transporte no agravamento da poluição atmosférica. A partir dessas informações tornam-se possíveis o monitoramento e o controle da qualidade do ar. Para tanto, amostras das emissões de diferentes motocicletas foram coletadas, por meio de dinamômetro, e analisadas por cromatografia gasosa. As emissões das motocicletas foram utilizadas em conjunto com dados meteorológicos utilizando o modelo de trajetória OZIPR e o mecanismo químico SAPRC para demonstrar o impacto na formação do ozônio troposférico na região. As simulações indicam que a concentração de ozônio na troposfera poderá ultrapassar o padrão nacional estabelecido pela Resolução CONAMA 03/90 em até três anos. Além disso, acrescenta-se que as taxas de emissões de compostos legislados emitidos pelas motocicletas utilizadas neste estudo (HC, CO e NOx) já atendem aos níveis preconizados em todas as fases do PROMOT. Assim, além da adoção do PROMOT, se fazem necessárias medidas adicionais para o gerenciamento da emissão de poluentes provindos de fontes móveis. A alteração do tipo de combustível ou até mesmo da fonte de energia, elétrica, por exemplo, seria uma alternativa para o controle da poluição atmosférica
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
Para a maioria dos municípios brasileiros, a instalação de um aterro sanitário é um desafio, sendo uma das dificuldades o custo elevado. Existem algumas formas de mitigar estes custos e uma delas é através do mercado de emissões. Com planejamento prévio suficiente, é possível queimar o metano gerado através da degradação do resíduo, podendo resultar em benefícios para o aterro tanto através do aproveitamento (geração de energia ou venda direta) quanto recebimento de algum tipo de certificado de emissões negociável. Incluído neste planejamento prévio suficiente está a realização da estimativa ex-ante de emissão de metano para saber previamente qual será o aproveitamento mais indicado e a eventual receita oriunda da queima. Quando analisados os projetos de MDL feitos em aterros sanitários, pode ser notado que estas estimativas são muitas vezes mal feitas, gerando valores estimados muito acima do realmente observado durante a operação. Este erro acarreta uma perda de credibilidade deste tipo de projeto, já que o número esperado é raramente alcançado. Existem alguns fatores que contribuem para esta discrepância de valores, sendo problemas operacionais (como exemplo podem ser citados deficiência no sistema de captura do biogás e problemas na captação e recirculação de lixiviado) e de modelagem (utilização de valores de entrada experimentais obtidos sob situações muito diferentes das encontradas nos aterros brasileiros, por exemplo) os possíveis principais vilões. Este trabalho visa apresentar e discutir os principais problemas na realização de estimativas prévias de emissão de metano em aterros sanitários utilizando projetos brasileiros de MDL registrados e que estejam atualmente emitindo créditos de carbono como base para analisar a qualidade das estimativas feitas atualmente. Além disto, busca-se também entrevistar profissionais da área para tentar obter diferentes pontos de vista sobre esta questão. Fica claro que os valores estimados, de um modo geral, são entre 40 e 50% superiores aos observados. Metade dos especialistas aponta problemas operacionais diversos como os principais contribuintes desta diferença, mas problemas na modelagem parecem influenciar decisivamente na realização das estimativas. A utilização de valores de entrada no modelo precisa ser criteriosamente analisada e devem ser utilizados números obtidos através de pesquisas que representem a realidade do aterro em questão.
Resumo:
A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).
Resumo:
As ferramentas computacionais estão apoiando, de maneira crescente, o processo de ensino e aprendizagem em diversas áreas. Elas aumentam as possibilidades do docente para ministrar um conteúdo e interagir com seus alunos. Neste grupo de ferramentas estão as simulações baseadas em sistemas multiagentes. Neste contexto, este trabalho tem como objetivo apresentar um ambiente de simulação do crescimento populacional de uma colmeia para o ensino de Biologia. As variáveis do sistema podem ser alteradas visando analisar os diferentes resultados obtidos. Aspectos como duração e tempo da florada das plantações, conhecidos como campos de flores, podem ser manipulados pelo aluno. A abordagem multiagentes em Inteligência Artificial Distribuída foi a solução escolhida, para que o controle das atividades do aplicativo fosse feito de maneira automatizada. A Realidade Virtual foi utilizada para acrescentar aspectos importantes do processo que não podem ser visualizados pela simulação matemática. Uma síntese da utilização de tecnologias na educação, em especial da Informática, é discutida no trabalho. Aspectos da aplicação no ensino de Biologia são apresentados, assim como resultados iniciais de sua utilização.
Resumo:
O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.
Resumo:
O desenvolvimento do projeto consistiu na modelagem da informação para gestão em arqueologia numa base de dados convergente de informação, caracterizada por um ambiente cartográfico digital, integrando mapas temáticos e base de dados alfanumérica num modelo protótipo e interativo para ajudar a integrar as informações na gestão em arqueologia, permitindo o registro, armazenamento e visualização da informação arqueológica correlacionada a mapas temáticos.
Resumo:
Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.
Resumo:
O petróleo é uma complexa mistura de compostos orgânicos e inorgânicos em que predominam os hidrocarbonetos e que apresentam contaminações variadas, entre essas os compostos de enxofre. Esses além de gerarem inconvenientes durante os processos de refino do petróleo, como corrosão nos equipamentos e envenenamento de catalisadores dos processos de craqueamento, também representam um grande problema para o meio ambiente e para a saúde da população, principalmente em relação à poluição atmosférica. Além das emissões de compostos de enxofre oriundas da própria refinaria, com destaque para os óxidos de enxofre e o sulfeto de hidrogênio, os compostos de enxofre, que não são retirados durante o refino e estão presentes nos derivados do petróleo, provocam a emissão de uma grande quantidade de poluentes na atmosfera durante o processo de queima dos combustíveis. Os efeitos dos CRE na atmosfera urbana ainda não são muito conhecidos, o que justifica um estudo mais profundo desses compostos, que além de causarem danos a saúde da população, podem influenciar na formação do ozônio troposferico
Resumo:
Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.
Resumo:
Novas tecnologias, entendidas como parte integrante dos ambientes midiáticos contemporâneos, ajudam a conformar novos modelos perceptivos. O surgimento e a proliferação de tecnologias de síntese e de modelagem de sons por meios eletrônicos recria a relação entre o espaço presente no filme e as referências significantes que possuímos desse espaço. Os sons destacam-se dos objetos empíricos, alargando o campo de significações e de afetações sensoriais. Ao criar novas relações entre o corpo do espectador e uma inédita paisagem sonora eletrônica, novas tecnologias de som, como parte de um processo mais amplo das mídias, demandam um maior envolvimento da plateia. Dispositivos de imersão, efeitos especiais, uma nova distribuição espacial do ambiente sonoro, maior fidelidade e potência, reproduzem o encantamento físico despertado pelos primeiros cinemas. Para analisar o surgimento de novas audibilidades, novas formas de investigar o mundo a partir dessas tecnologias e dessa atual paisagem sonora, este trabalho procura uma abordagem tríplice. Inicialmente, procuramos fazer uma descrição de cunho fenomenológico da experiência cinematográfica. Em seguida, utilizamos propostas da Teoria das Materialidades para falar das afetações físicas induzidas pelo espaço sonoro eletrônico. Por último, utilizamos a perspectiva das ciências cognitivas que nos diz que corpo, cérebro e ambiente neste caso um ambiente extremamente tecnológico fazem parte de um mesmo processo dinâmico
Resumo:
Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.
Resumo:
Esta pesquisa avaliou a situação da tuberculose no Brasil, no período de 2001 a 2003, segundo indicadores do processo de operacionalização do Programa Nacional de Controle de Tuberculose (PNCT), e estimou os efeitos de fatores determinantes da taxa de incidência da doença. Para a avaliação utilizou-se a análise de cluster não-hierárquica, visando agrupar os municípios brasileiros de acordo com a morbidade por tuberculose (TB) e AIDS, e pelo desempenho do PNCT. Estes clusters foram mapeados, comparando-se a distribuição nos municípios, em regiões metropolitanas, municípios prioritários, e segundo o tamanho da população. O qui-quadrado de Pearson foi utilizado para testar associação nas categorias. A modelagem longitudinal multinível foi usada para identificar e estimar os efeitos dos determinantes da doença. Os agregados foram: anos, municípios e regiões metropolitanas. O modelo foi de intercepto e inclinação aleatória. Foram retidas as variáveis capazes de diminuir a variância dos níveis, pois, desta forma, explicam a variabilidade hierárquica da doença. Incluiu-se renda, densidade populacional, proporção de cura, taxa de incidência de AIDS e as grandes regiões brasileiras. A avaliação mostrou que a situação epidemiológica preocupante ocorreu nos municípios com Baixa TB e Alta AIDS, e Alta TB e AIDS. O cluster de Muito baixa TB e AIDS concentrou 50% dos municípios, o que pode configurar problemas de notificação. São 6 clusters de desempenho do programa. Bom e Bom com baixo DOTS predominando nos municípios pequenos, não prioritários e fora das regiões metropolitanas. No desempenho Moderado houve maior proporção de municípios prioritários. Clusters Regular e Fraco concentraram 10% dos municípios, com abandono de tratamento elevado e cura muito baixa. O cluster Muito Fraco caracterizou-se pela falta de dados nos indicadores de desempenho. O modelo multinível identificou a AIDS como fator impactante na tuberculose, anteriormente não encontrado em outros estudos; a interação entre renda e AIDS, e importante contribuição das regiões metropolitanas na distribuição da tuberculose, que se manifesta heterogeneamente nas grandes regiões do país. A análise discriminou municípios, e mostrou não haver associação entre maior morbidade e melhor desempenho do PNCT, retratando inadequação da vigilância à realidade epidemiológica do Brasil. O programa necessita ser reforçado, no sentido de considerar a AIDS ao estabelecer suas estratégias de controle. Ademais, os aspectos de baixa renda da população e densidade populacional, já analisados em diversas pesquisas, também se manifestaram de forma importante nestes resultados.
Resumo:
efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.