885 resultados para Modelagem de dados
Resumo:
A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.
Resumo:
O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
As legislações ambientais estão cada vez mais severas em relação à quantidade de compostos sulfurados eliminada na atmosfera pela queima de combustíveis fósseis. Os processos de adsorção têm se destacado como uma alternativa promissora na remoção de sulfurados presentes em combustíveis. Nos estudos de adsorção, ensaios de cinética e isoterma usando banhos agitados são frequentemente utilizados na avaliação do desempenho dos adsorventes na remoção desejada. Apesar de úteis, tais ensaios apresentam algumas limitações quando os sistemas analisados envolvem elevadas relações entre a concentração inicial de soluto e massa de adsorvente. Alternativamente, este trabalho apresenta uma estratégia envolvendo a técnica da adsorção utilizando a calorimetria para o estudo de cinética e isoterma térmica de quinolina em uma sílica-alumina comercial a partir de soluções em n-hexadecano. Diferentemente das outras técnicas citadas, a adsorção por calorimetria possibilitou, em um único ensaio e com menos amostra, a obtenção da cinética térmica de adsorção, e de um ponto da isoterma térmica de adsorção. Adicionalmente, foi proposta uma modelagem dos fenômenos de transferência de calor e massa envolvidos durante o ensaio, visando simular a curva calorimétrica. Valores de coeficiente de difusão efetivo da quinolina na sílica-alumina em diferentes condições de concentração inicial de quinolina em n-hexadecano, a uma mesma temperatura, foram obtidos a partir do ajuste do modelo da curva calorimétrica aos dados experimentais
Resumo:
Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.
Resumo:
É descrita a modelagem, para controle, da dinâmica de uma plataforma semisubmersível com seis graus de liberdade. O modelo inclui os efeitos dos tanques de lastro como forças e momentos, assim como a dinâmica da plataforma. Os parâmetros do sistema foram obtidos das características da plataforma e de resultados experimentais obtidos com uma plataforma semisubmersível de dimensões reduzidas. O desenvolvimento de uma metodologia e de um software capazes de determinar o volume submerso e o centro de empuxo de uma estrutura com geometria complexa foram pontos determinantes nessa Dissertação, tendo em vista a complexidade do processo e as importâncias desses parâmetros para o desenvolvimento do modelo. A linearização do modelo permitiu a elaboração de uma estratégia de controle capaz de estabilizar a plataforma mesmo em condições iniciais distantes do equilíbrio. As equações que descrevem o movimento da plataforma nos graus de liberdade vertical, jogo e arfagem foram desenvolvidas. A realocação dos polos e um observador de estado foram utilizados com o objetivo de melhorar o controle do sistema.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4
Resumo:
Este trabalho teve como objetivo avaliar o impacto radiológico atmosférico da Unidade de Concentrado de Urânio URA, Caetité, BA, através da modelagem da dispersão de radionuclídeos e a estimativa da dose efetiva anual (em mSv.ano-1). Para tal, utilizou-se o programa MILDOS-AREA que foi desenvolvido pelo Argonne National Laboratory (ANL) em conjunto com a U.S. Nuclear Regulatory Commission (USNRC), para avaliar impacto radiológico ambiental atmosférico nas instalações de mineração e beneficiamento de urânio. O incremento de dose efetiva anual para três grupos críticos hipotéticos e oito grupos populacionais reais foi estimado com base na medida de fluxos de radônio e na estimativa das concentrações de radionuclídeos em particulados no ar dos principais termos fontes da URA (cava da mina, depósito de estéril e britador). Paralelamente, as medidas de concentração de radônio e taxa de kerma no ar, reportadas nos relatórios dos programas de monitoração ambiental pré-operacional (PMAPO) e operacional (PMAO) da URA, foram avaliadas. Os valores de dose efetiva anual estimados para os grupos críticos hipotéticos variaram de 1,78E-02 a 2,10E-02 mSv.ano-1, enquanto que para os grupos populacionais, variaram de 7,49E-05 a 1,56E-02 mSv.ano-1. A maior contribuição para o incremento da dose foi devida a inalação do radônio, sendo responsável por quase a totalidade da dose efetiva anual estimada. A média da concentração de atividade de radônio no entorno da URA foi 137,21 Bq m-3 e não sendo observada diferenças significativas entre as concentrações de radônio reportadas nos programas de monitoramento ambiental pré-operacional (valores de background) e operacional. Os valores médios de taxa de kerma no ar no entorno da URA foram de 0,136 μGy h-1. No entanto, em todos os pontos de monitoramento, os valores reportados no programa operacional foram inferiores aos valores reportados no programa pré-operacional (background), o que sugere problemas de medidas ou de coleta de dados durante a realização deste programa. O operador da URA utilizou para avaliação de impacto radiológico atmosférico, resultados apresentados em seus relatórios finais de análise de segurança (RFAS), um modelo próprio de simulação de dispersão, denominado Impacto Ambiental Radiológico (IAR7). Uma comparação entre o MILDOS-AREA e o IAR7, utilizando os mesmos parâmetros de entrada reportados no RFAS sugere que o IAR7 subestimou as concentrações de radônio no ar para os grupos críticos hipotéticos. Os resultados de simulação com o MILDOS-AREA mostram que as doses efetivas estimadas para os grupos críticos hipotéticos são inferiores a 0,3 mSv.ano-1 que é a restrição de dose estabelecida pela Comissão Nacional de Energia Nuclear. Recomenda-se que o código MILDOS-AREA seja utilizado no Brasil, para fins de licenciamento e controle, tendo em vista que o mesmo é um código validado e já utilizado em outros países para avaliar impacto radiológico ambiental atmosférico em instalações de mineração e beneficiamento de urânio
Resumo:
No Brasil, entre as áreas protegidas e regulamentadas por lei estão às denominadas Unidades de Conservação (UC) e são definidas assim por possuírem características ambientais, estéticas, históricas ou culturais relevantes, importantes na manutenção dos ciclos naturais, demandando regimes especiais de preservação, conservação ou exploração racional dos seus recursos. O Parque Estadual da Serra da Tiririca (PESET), criado pela Lei 1.901, de 29 de novembro de 1991 localizado entre os municípios de Niterói e Maricá no Estado do Rio de Janeiro, enquadra-se na categoria de UC de Proteção Integral abrigando uma extensa faixa de Mata Atlântica em seus limites. Para a presente pesquisa foi feita uma classificação de Uso da terra e cobertura vegetal, refinada por pesquisas feitas através do trabalho de campo, que subsidiou a elaboração da proposta de Zoneamento Ambiental para o parque. O processamento digital da imagem foi feito utilizando-se o sistema SPRING desenvolvido pelo Instituto de Pesquisas Espaciais (INPE). A confecção dos mapas temáticos foi feita com apoio do sistema Arcgis desenvolvido pela ESRI. O Sistema de Informação Geográfica (SIG) foi empregado para as modelagens ambientais. Nessa etapa foram consideradas, de forma integrada, a variabilidade taxonômica, a expressão territorial e as alterações temporais verificáveis em uma base de dados georreferenciada. A tecnologia SIG integra operações convencionais de bases de dados, relativas ao armazenamento, manipulação, análise, consulta e apresentação de dados, com possibilidades de seleção e busca de informações e suporte à análise geoestatística, conjuntamente com a possibilidade de visualização de mapas sofisticados e de análise espacial proporcionada pelos mapas. A opção por esta tecnologia busca potencializar a eficiência operacional e permitir planejamento estratégico e administração de problemas, tanto minimizando os custos operacionais como acelerando processos decisórios. O estudo feito através da modelagem computacional do PESET apresentará o emprego das técnicas amplamente utilizadas no monitoramento ambiental, sendo úteis aos profissionais destinados à gestão e aos tomadores de decisão no âmbito das políticas públicas relacionadas à gestão ambiental de Unidades de Conservação.
Resumo:
Nos depósitos cenozóicos da Bacia de Taubaté são encontrados depósitos de folhelhos betuminosos (oleígenos) pertencentes à Formação Tremembé, de idade oligocênica, que durante alguns anos na década de 50 foram investigados com relação ao seu aproveitamento econômico através da extração industrial do óleo nele contido. Entretanto, em face de aspectos tecnológicos e conjunturais da época, esse aproveitamento industrial foi considerado inviável do ponto de vista econômico. Nesta dissertação é proposta uma aplicação da perfilagem geofísica para a caracterização da faciologia dos folhelhos betuminosos da Formação Tremembé, tendo como objetivo principal a identificação das eletrofácies nos perfis elétricos, através de uma metodologia robusta e consistente. A identificação de eletrofácies é importante para ajudar na determinação da caracterização de uma reserva não convencional e na análise da viabilidade econômica. Neste estudo foram utilizados os perfis convencionais de poço: Raio gama, resitividade, potencial espontâneo e sônico. Os dados de perfis de poços foram integrados com os testemunhos e dados geoquímicos, mais precisamente os dados de COT, S, IH, S2 para uma caracterização realística das eletrofácies. Os dados foram obtidos a partir de três sondagens rotativas realizadas na Bacia de Taubaté, resultantes de testemunhagem contínua e perfilagem a cabo ao longo do intervalo de folhelhos da Formação Tremembé. A partir disto, obtém-se como resposta um modelo específico para cada litologia, onde cada pico corresponde a uma eletrofácies, permitindo o estabelecimento de alguns padrões ou assinaturas geofísicas para as principais fácies ocorrentes. Como resultado deste trabalho, foi possível correlacionar as eletrofácies entre os poços numa seção modelo, a partir de similaridade lateral das eletrofácies entre os marcos estratigráficos representado, foi possível observar a continuidade de duas sequências de folhelhos betuminoso com alto teores de COT, S, IH, S2, considerados os mais importantes do ponto de vista econômico e gerado um modelo faciológico 2D e 3D dessas camadas. Os resultados obtidos neste trabalho são bastante promissores, apontando para a possibilidade de aplicação desta técnica a outros poços da Bacia de Taubaté, fornecendo subsídios relevantes à determinação da evolução sedimentar.
Resumo:
Esta dissertação testa e compara dois tipos de modelagem para previsão de uma mesma série temporal. Foi observada uma série temporal de distribuição de energia elétrica e, como estudo de caso, optou-se pela região metropolitana do Estado da Bahia. Foram testadas as combinações de três variáveis exógenas em cada modelo: a quantidade de clientes ligados na rede de distribuição de energia elétrica, a temperatura ambiente e a precipitação de chuvas. O modelo linear de previsão de séries temporais utilizado foi um SARIMAX. A modelagem de inteligência computacional utilizada para a previsão da série temporal foi um sistema de Inferência Fuzzy. Na busca de um melhor desempenho, foram feitos testes de quais variáveis exógenas melhor influenciam no comportamento da energia distribuída em cada modelo. Segundo a avaliação dos testes, o sistema Fuzzy de previsão foi o que obteve o menor erro. Porém dentre os menores erros, os resultados dos testes também indicaram diferentes variáveis exógenas para cada modelo de previsão.