161 resultados para modelagem de plumas gaussiana.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O picoplâncton (0,2 - 2,0 m) e ultraplâncton (> 2,0 - 5,0 m) despertam interesse por utilizarem ativamente a matéria orgânica dissolvida, estabelecendo a alça microbiana. Responsáveis por 50-80% da produção primária em águas oligotróficas, essas frações apresentam elevadas eficiência luminosa e razão superfície/volume que as permitem alcançar alto desenvolvimento mesmo sob baixas luminosidade e disponibilidade de nutrientes. Buscando relacionar a distribuição espacial e composição da comunidade pico e ultraplanctônica aos controles bottom-up na plataforma continental e talude ao largo dos Estados do Rio de Janeiro e São Paulo (22S a 26S), foram coletadas amostras de água em 39 estações oceanográficas e utilizadas as imagens dos sensores MODIS Terra e Aqua, bem como dados de hidrografia, para a descrição dos fenômenos oceanográficos de mesoescala. A abundância total de ambas as frações de tamanho, assim como a dominância do picoplâncton, reduziu em função do distanciamento da costa. Os organismos autotróficos foram em média (102 cél.mL-1 a 104 cél.mL-1 ) majoritariamente uma ordem de grandeza inferiores aos heterotróficos (103 cél.mL-1 a 105 cél.mL-1). A Água Central do Atlântico Sul (ACAS) e as plumas das baías de Guanabara e Sepetiba (RJ) permaneceram na plataforma interna favorecendo o aumento na concentração dos macronutrientes e refletindo na mudança da estrutura da comunidade através do aumento da contribuição de autótrofos no centro da plataforma, principalmente do ultraplâncton à superfície (cerca de 21%) e na profundidade do máximo de clorofila (44%). O transporte de águas costeiras carreadas por uma corrente de origem sul gerou o vórtice de plataforma identificado nas imagens de satélite para a região da plataforma interna de Ubatuba (SP), onde concentrações mais elevadas de amônio (0,28 M) e fosfato (9,64 M) a partir dos 50 m sustentaram maior densidade do ultra autótrofo (2,89 x 103 cél.mL-1) que superou a densidade de heterótrofos (2,50 x 103 cél.mL-1) no máximo de clorofila. Os resultados destacaram um forte gradiente nerítico-oceânico na distribuição dos organismos. Sugerem ainda a predominância do metabolismo heterotrófico na maior parte das águas oligotróficas da plataforma e talude entre o Rio de Janeiro e São Paulo, bem como a presença de caráter autotrófico naquelas regiões influenciadas por feições de mesoescala, como plumas estuarinas e vórtices de plataforma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a maioria dos municípios brasileiros, a instalação de um aterro sanitário é um desafio, sendo uma das dificuldades o custo elevado. Existem algumas formas de mitigar estes custos e uma delas é através do mercado de emissões. Com planejamento prévio suficiente, é possível queimar o metano gerado através da degradação do resíduo, podendo resultar em benefícios para o aterro tanto através do aproveitamento (geração de energia ou venda direta) quanto recebimento de algum tipo de certificado de emissões negociável. Incluído neste planejamento prévio suficiente está a realização da estimativa ex-ante de emissão de metano para saber previamente qual será o aproveitamento mais indicado e a eventual receita oriunda da queima. Quando analisados os projetos de MDL feitos em aterros sanitários, pode ser notado que estas estimativas são muitas vezes mal feitas, gerando valores estimados muito acima do realmente observado durante a operação. Este erro acarreta uma perda de credibilidade deste tipo de projeto, já que o número esperado é raramente alcançado. Existem alguns fatores que contribuem para esta discrepância de valores, sendo problemas operacionais (como exemplo podem ser citados deficiência no sistema de captura do biogás e problemas na captação e recirculação de lixiviado) e de modelagem (utilização de valores de entrada experimentais obtidos sob situações muito diferentes das encontradas nos aterros brasileiros, por exemplo) os possíveis principais vilões. Este trabalho visa apresentar e discutir os principais problemas na realização de estimativas prévias de emissão de metano em aterros sanitários utilizando projetos brasileiros de MDL registrados e que estejam atualmente emitindo créditos de carbono como base para analisar a qualidade das estimativas feitas atualmente. Além disto, busca-se também entrevistar profissionais da área para tentar obter diferentes pontos de vista sobre esta questão. Fica claro que os valores estimados, de um modo geral, são entre 40 e 50% superiores aos observados. Metade dos especialistas aponta problemas operacionais diversos como os principais contribuintes desta diferença, mas problemas na modelagem parecem influenciar decisivamente na realização das estimativas. A utilização de valores de entrada no modelo precisa ser criteriosamente analisada e devem ser utilizados números obtidos através de pesquisas que representem a realidade do aterro em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ferramentas computacionais estão apoiando, de maneira crescente, o processo de ensino e aprendizagem em diversas áreas. Elas aumentam as possibilidades do docente para ministrar um conteúdo e interagir com seus alunos. Neste grupo de ferramentas estão as simulações baseadas em sistemas multiagentes. Neste contexto, este trabalho tem como objetivo apresentar um ambiente de simulação do crescimento populacional de uma colmeia para o ensino de Biologia. As variáveis do sistema podem ser alteradas visando analisar os diferentes resultados obtidos. Aspectos como duração e tempo da florada das plantações, conhecidos como campos de flores, podem ser manipulados pelo aluno. A abordagem multiagentes em Inteligência Artificial Distribuída foi a solução escolhida, para que o controle das atividades do aplicativo fosse feito de maneira automatizada. A Realidade Virtual foi utilizada para acrescentar aspectos importantes do processo que não podem ser visualizados pela simulação matemática. Uma síntese da utilização de tecnologias na educação, em especial da Informática, é discutida no trabalho. Aspectos da aplicação no ensino de Biologia são apresentados, assim como resultados iniciais de sua utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento do projeto consistiu na modelagem da informação para gestão em arqueologia numa base de dados convergente de informação, caracterizada por um ambiente cartográfico digital, integrando mapas temáticos e base de dados alfanumérica num modelo protótipo e interativo para ajudar a integrar as informações na gestão em arqueologia, permitindo o registro, armazenamento e visualização da informação arqueológica correlacionada a mapas temáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lamprófiros e diabásios alcalinos afloram no litoral dos estados de São Paulo e Rio de Janeiro e integram o Enxame de Diques da Serra do Mar (EDSM). Essas rochas ocorrem sob a forma de diques e intrudem o Orógeno Ribeira, de idade Neoproterozóica/Cambro-Ordoviciana, inserindo-se no contexto geodinâmico de abertura do Oceano Atlântico Sul durante o Cretáceo Superior. Essas intrusões são subverticais e orientam-se preferencialmente a NE-SW, seguindo a estruturação das rochas encaixantes. Os lamprófiros são classificados como monchiquitos e camptonitos e exibem, respectivamente, textura hipocristalina e holocristalina. Apresentam também textura panidiomórfica, fenocristais de clinopiroxênio e olivina, imersos em matriz formada essencialmente por esses mesmos minerais, além de biotita, kaersutita e minerais opacos. O camptonito apresenta ainda plagioclásio na matriz. Os diabásios alcalinos são hipocristalinos a holocristalinos, equigranulares a inequigranulares, com fenocristais de olivina e/ou clinopiroxênio e/ou plagioclásio, em uma matriz composta essencialmente por esses minerais. As rochas estudadas caracterizam séries alcalinas miaskíticas, com os lamprófiros sendo tanto sódicos, potássicos e ultrapotássicos e os diabásios alcalinos como predominantemente sódicos. Modelagens petrogenéticas envolvendo possíveis processos evolutivos mostram que é improvável que os lamprófiros sejam cogenéticos por processos evolutivos envolvendo tanto cristalização fracionada, com ou sem assimilação concomitante, quanto hibridização. O mesmo ocorre para os diabásios alcalinos. A discriminação de fontes mantélicas foi feita com base nos teores de elementos traços de amostras representativas de líquidos parentais e indica que esse magmatismo alcalino está relacionado a fontes lherzolíticas com fusão parcial na zona de estabilidade do espinélio, isto é, a poucas profundidades. Os dados litogeoquímicos e isotópicos do sistema Sr-Nd das rochas estudadas sugerem tanto o envolvimento de fontes férteis, associadas ao manto sublitosférico, quanto de fontes enriquecidas, relacionadas ao manto litosférico subcontinental. Modelagens de mistura binária revelam que a petrogênese dos lamprófiros e diabásios alcalinos envolveu uma grande participação de um componente fértil misturado com contribuições menores de um componente enriquecido. Idades TDM (760-557 Ma) obtidas sugerem remobilização do manto litosférico no Neoproterozóico, talvez relacionadas à subducção da Placa São Francisco preteritamente à colisão do Orógeno Ribeira. Altas razões CaO/Al2O3 para os líquidos lamprofíricos menos evoluídos, altos teores de Zr, correlações negativas Zr/Hf e Ti/Eu e associação com carbonatitos indicam condições metassomáticas de alto CO2/H2O. Em escala local, modelos geodinâmicos baseados na astenosfera não isotérmica parecem mais aplicáveis. No entanto, modelos geodinâmicos baseados na astenosfera isotérmica (com o envolvimento de plumas) parecem mais indicados num contexto regional, considerando-se outras províncias alcalinas contemporâneas e correlatas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O petróleo é uma complexa mistura de compostos orgânicos e inorgânicos em que predominam os hidrocarbonetos e que apresentam contaminações variadas, entre essas os compostos de enxofre. Esses além de gerarem inconvenientes durante os processos de refino do petróleo, como corrosão nos equipamentos e envenenamento de catalisadores dos processos de craqueamento, também representam um grande problema para o meio ambiente e para a saúde da população, principalmente em relação à poluição atmosférica. Além das emissões de compostos de enxofre oriundas da própria refinaria, com destaque para os óxidos de enxofre e o sulfeto de hidrogênio, os compostos de enxofre, que não são retirados durante o refino e estão presentes nos derivados do petróleo, provocam a emissão de uma grande quantidade de poluentes na atmosfera durante o processo de queima dos combustíveis. Os efeitos dos CRE na atmosfera urbana ainda não são muito conhecidos, o que justifica um estudo mais profundo desses compostos, que além de causarem danos a saúde da população, podem influenciar na formação do ozônio troposferico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Novas tecnologias, entendidas como parte integrante dos ambientes midiáticos contemporâneos, ajudam a conformar novos modelos perceptivos. O surgimento e a proliferação de tecnologias de síntese e de modelagem de sons por meios eletrônicos recria a relação entre o espaço presente no filme e as referências significantes que possuímos desse espaço. Os sons destacam-se dos objetos empíricos, alargando o campo de significações e de afetações sensoriais. Ao criar novas relações entre o corpo do espectador e uma inédita paisagem sonora eletrônica, novas tecnologias de som, como parte de um processo mais amplo das mídias, demandam um maior envolvimento da plateia. Dispositivos de imersão, efeitos especiais, uma nova distribuição espacial do ambiente sonoro, maior fidelidade e potência, reproduzem o encantamento físico despertado pelos primeiros cinemas. Para analisar o surgimento de novas audibilidades, novas formas de investigar o mundo a partir dessas tecnologias e dessa atual paisagem sonora, este trabalho procura uma abordagem tríplice. Inicialmente, procuramos fazer uma descrição de cunho fenomenológico da experiência cinematográfica. Em seguida, utilizamos propostas da Teoria das Materialidades para falar das afetações físicas induzidas pelo espaço sonoro eletrônico. Por último, utilizamos a perspectiva das ciências cognitivas que nos diz que corpo, cérebro e ambiente neste caso um ambiente extremamente tecnológico fazem parte de um mesmo processo dinâmico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa avaliou a situação da tuberculose no Brasil, no período de 2001 a 2003, segundo indicadores do processo de operacionalização do Programa Nacional de Controle de Tuberculose (PNCT), e estimou os efeitos de fatores determinantes da taxa de incidência da doença. Para a avaliação utilizou-se a análise de cluster não-hierárquica, visando agrupar os municípios brasileiros de acordo com a morbidade por tuberculose (TB) e AIDS, e pelo desempenho do PNCT. Estes clusters foram mapeados, comparando-se a distribuição nos municípios, em regiões metropolitanas, municípios prioritários, e segundo o tamanho da população. O qui-quadrado de Pearson foi utilizado para testar associação nas categorias. A modelagem longitudinal multinível foi usada para identificar e estimar os efeitos dos determinantes da doença. Os agregados foram: anos, municípios e regiões metropolitanas. O modelo foi de intercepto e inclinação aleatória. Foram retidas as variáveis capazes de diminuir a variância dos níveis, pois, desta forma, explicam a variabilidade hierárquica da doença. Incluiu-se renda, densidade populacional, proporção de cura, taxa de incidência de AIDS e as grandes regiões brasileiras. A avaliação mostrou que a situação epidemiológica preocupante ocorreu nos municípios com Baixa TB e Alta AIDS, e Alta TB e AIDS. O cluster de Muito baixa TB e AIDS concentrou 50% dos municípios, o que pode configurar problemas de notificação. São 6 clusters de desempenho do programa. Bom e Bom com baixo DOTS predominando nos municípios pequenos, não prioritários e fora das regiões metropolitanas. No desempenho Moderado houve maior proporção de municípios prioritários. Clusters Regular e Fraco concentraram 10% dos municípios, com abandono de tratamento elevado e cura muito baixa. O cluster Muito Fraco caracterizou-se pela falta de dados nos indicadores de desempenho. O modelo multinível identificou a AIDS como fator impactante na tuberculose, anteriormente não encontrado em outros estudos; a interação entre renda e AIDS, e importante contribuição das regiões metropolitanas na distribuição da tuberculose, que se manifesta heterogeneamente nas grandes regiões do país. A análise discriminou municípios, e mostrou não haver associação entre maior morbidade e melhor desempenho do PNCT, retratando inadequação da vigilância à realidade epidemiológica do Brasil. O programa necessita ser reforçado, no sentido de considerar a AIDS ao estabelecer suas estratégias de controle. Ademais, os aspectos de baixa renda da população e densidade populacional, já analisados em diversas pesquisas, também se manifestaram de forma importante nestes resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.