43 resultados para Previsão com Metodologia de Box-Jenkins


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma simulação numérica que leva em conta os efeitos de estratificação e mistura escalar (como a temperatura, salinidade ou substância solúvel em água) é necessária para estudar e prever os impactos ambientais que um reservatório de usina hidrelétrica pode produzir. Este trabalho sugere uma metodologia para o estudo de escoamentos ambientais, principalmente aqueles em que o conhecimento da interação entre a estratificação e mistura pode dar noções importantes dos fenômenos que ocorrem. Por esta razão, ferramentas de simulação numérica 3D de escoamento ambiental são desenvolvidas. Um gerador de malha de tetraedros do reservatório e o modelo de turbulência algébrico baseado no número de Richardson são as principais ferramentas desenvolvidas. A principal dificuldade na geração de uma malha de tetraedros de um reservatório é a distribuição não uniforme dos pontos relacionada com a relação desproporcional entre as escalas horizontais e verticais do reservatório. Neste tipo de distribuição de pontos, o algoritmo convencional de geração de malha de tetraedros pode tornar-se instável. Por esta razão, um gerador de malha não estruturada de tetraedros é desenvolvido e a metodologia utilizada para obter elementos conformes é descrita. A geração de malha superficial de triângulos utilizando a triangulação Delaunay e a construção do tetraedros a partir da malha triangular são os principais passos para o gerador de malha. A simulação hidrodinâmica com o modelo de turbulência fornece uma ferramenta útil e computacionalmente viável para fins de engenharia. Além disso, o modelo de turbulência baseado no número de Richardson leva em conta os efeitos da interação entre turbulência e estratificação. O modelo algébrico é o mais simples entre os diversos modelos de turbulência. Mas, fornece resultados realistas com o ajuste de uma pequena quantidade de parâmetros. São incorporados os modelos de viscosidade/difusividade turbulenta para escoamento estratificado. Na aproximação das equações médias de Reynolds e transporte de escalar é utilizando o Método dos Elementos Finitos. Os termos convectivos são aproximados utilizando o método semi-Lagrangeano, e a aproximação espacial é baseada no método de Galerkin. Os resultados computacionais são comparados com os resultados disponíveis na literatura. E, finalmente, a simulação de escoamento em um braço de reservatório é apresentada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa teve a pretensão de discutir e propor pistas para uma nova abordagem metodológica, direcionada aos profissionais que trabalham com o tema do abuso sexual intrafamiliar e em relações próximas, por meio de uma torção dos Processos Circulares sob a inspiração da Teoria Ator-rede, no sentido de ampliação e renovação dos modos de intervenção do Sistema de Garantia dos Direitos da Criança e do Adolescente. Apesar da relevância do tema, percebeu-se que o abuso sexual de crianças e adolescentes ainda é tabu em nossa sociedade, tratado de forma privada e sem diálogo intersetorial, mesmo dentro das estruturas institucionais. A delicadeza do tema deve-se à conjunção dos temas sexo, criança, família e violência. É uma temática que clama por novos e complementares aportes teóricos e metodológicos, após a constatação que nem o sistema penal, nem o de garantia de direitos têm respostas que se pautem na atenção, no cuidado e em uma escuta da criança que propicie que ela trabalhe seus sofrimentos, dúvidas e sentimentos variados como sujeito de direitos. O tema busca trazer novas possibilidades para o trabalho com os profissionais, operadores do direito ou atores do Sistema de Garantia dos Direitos da Criança e Adolescente, criando espaço reflexivo para que possam ser redesenhadas e as questões afetas clareadas. A metodologia de trabalho proposta foi executada com um grupo de profissionais da área, apontando para a possibilidade de seu exercício com famílias envolvidas com situações de abuso sexual

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução tecnológica tem feito as empresas se modificarem, e para acompanhar o mercado elas buscam opções que possam ajudar melhor nas tomadas de suas decisões, uma delas é a utilização de tecnologias. A presente pesquisa objetiva analisar a contribuição da tecnologia da informação no orçamento da indústria Alfa. Esta pesquisa é descritiva e exploratória, pois busca descrever a realidade da organização, identificando as características do orçamento da mesma, é quantitativa, pois busca através de métodos estatísticos realizar previsões para o ano de 2013 das demonstrações de resultados advindos dos anos anteriores (2010 a 2012), é também, qualitativa, pois foi elaborado um questionário que pôde auxiliar na interpretação dos dados quantitativos, possibilitando melhores informações sobre o objetivo proposto. Concluiu-se que a tecnologia pode ajudar a melhorar a qualidade da previsão do orçamento da indústria Alfa e o método que melhor se adequou para as estimativas foi a suavização exponencial que demonstrou maior confiabilidade para os resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A genética forense tem grande importância na geração de provas em casos de violência sexual, paternidade criminal, identificação de cadáveres e investigação de evidências de locais de crime. A análise de STRs apresenta grande poder de discriminação, mas é uma metodologia multi-etapas, trabalhosa, cara e em muitos casos a análise genética é prejudicada pela baixa quantidade e qualidade das evidências coletadas. Este estudo teve como objetivo desenvolver e caracterizar uma metodologia de triagem de amostras forenses através da análise de perfis de dissociação em alta resolução (HRM) de regiões do DNA mitocondrial, o qual está presente em maior número de cópias e mais resistente a degradação. Para tanto, foram extraídos DNAs de 68 doadores. Estas amostras foram sequenciadas e analisadas por HRM para sete alvos no DNA mitocondrial. Também foram realizados ensaios para determinar a influência do método de extração, da concentração e nível de degradação do DNA no perfil de HRM obtido para uma amostra. Os resultados demonstraram a capacidade da técnica de excluir indivíduos com sequências diferentes da referência comparativa em cinco regiões amplificadas. Podem ser analisadas em conjunto, amostras de DNA com variação de concentração de até a ordem de 100 vezes e extraídas por diferentes metodologias. Condições de degradação de material genético não prejudicaram a obtenção de perfis de dissociação em alta resolução. A sensibilidade da técnica foi aprimorada com a análise de produtos de amplificação de tamanho reduzido. A fim de otimizar o ensaio foi testada a análise de HRM em reações de PCR duplex. Um dos pares de amplificação forneceu perfis de HRM compatíveis com resultados obtidos de reações com amplificação de apenas um dos alvos. Através da análise conjunta das cinco regiões, esta metodologia visa a identificação de indivíduos não relacionados com as referências comparativas, diminuindo o número de amostras a serem analisadas por STRs, reduzindo gastos e aumentando a eficiência da rotina de laboratórios de genética forense.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora seja crescente a utilização de reatores anaeróbios no tratamento de efluentes nas indústrias de refrigerantes, algumas características desta tecnologia ainda comprometem o desempenho, a estabilidade e a confiabilidade do processo, acarretando no aumento dos custos operacionais necessários para garantir a qualidade do efluente tratado, em adequação à todas as exigências legais. Dentre estas características destaca-se a vulnerabilidade do lodo anaeróbio a choques de produtos químicos. O presente trabalho propõe uma metodologia, baseada no método PDCA, com o objetivo de prevenir impactos negativos sobre o reator anaeróbio, através da identificação dos resíduos químicos gerados pela fábrica de refrigerantes, assim como a sua classificação, quanto a frequência de descartes e a severidade do impacto sobre a atividade dos microorganismos anaeróbios. O estudo mostrou, através da redução de DQO (Demanda Química de Oxigênio), quais produtos químicos apresentaram maior inibição sobre o lodo anaeróbio, possibilitando à fábrica direcionar ações de controle e contingência, além de pré-requisitos operacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de simulação para avaliação da recarga de veículos elétricos em redes de distribuição de energia, com foco na adequação da capacidade dos transformadores. Com base em medições efetuadas, foi possível o tratamento dos dados para a modelagem de curvas de recarga de veículos elétricos e a análise do acréscimo da demanda da recarga em transformadores de distribuição. O modelo de simulação permite avaliar os efeitos das variáveis relacionadas à distância percorrida e ao horário da conexão dos veículos elétricos à rede, tanto de forma determinística quanto de forma aleatória. Estes efeitos foram comparados e permitiram concluir a importância da utilização deste método mais realista para calcular a capacidade dos transformadores, visando suprir esta nova demanda. Além disso, o trabalho apresenta indicadores dos benefícios ambientais e energéticos da penetração dos veículos elétricos no que diz respeito ao gasto com reabastecimento e às emissões evitadas, respectivamente, ao se utilizar veículos elétricos à bateria em substituição aos tradicionais veículos à combustão interna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo compara a habilidade preditiva foradaamostra de um modelo DSGE (DynamicStochastic General EquilibriumModel)Novo-Keynesiano, especificado e estimado para o Brasil, com a de um modelo Autorregressivo Vetorial (VAR) e com a de um modelo AutorregressivoVetorial Bayesiano (BVAR). O artigo inova em relação a outros trabalhos similares feitos para o Brasil (Castro et al. (2011) e Caetano e Moura (2013)), ao escolher uma especificação para o modelo DSGE que, ao permitir o uso de um conjunto de informação mais rico, tornou possível computar-se a habilidade preditiva do DSGE a partir de previsões que são,verdadeiramente,previsõesfora da amostra. Ademais, diferentemente de outros artigos que utilizaram dados brasileiros, avalia-se em que medida as respostas das variáveis aos choques na política monetária e no câmbio, obtidas pelo modelo DSGE, se assemelham àquelas de um BVAR estimado através de procedimentos bayesianos desenvolvidos de forma consistente. O modelo DSGE estimado é similar ao utilizado por Justiniano e Preston (2010) e Alpanda (2010). O modelo BVAR foi estimado utilizando uma metodologia semelhante à desenvolvida por Sims e Zha (1998), Waggoner e Zha (2003) e Ramírez, Waggoner e Zha (2007).Os resultados obtidos mostram que o modelo DSGE é capaz de gerar, para algumas variáveis, previsões competitivas em relação às dos outros modelos rivais VAR e BVAR. Além disso, as respostas das variáveis aos choques nas políticas monetária e cambial, nos modelos DSGE e BVAR, são bastante similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cenário mundial de crescimento está favorecendo uma demanda cada vez maior por petróleo e gás. Para se adequar a esta demanda crescente, as companhias petroleiras têm perfurado em regiões de águas profundas e com caráter geológico particular, como os depósitos carbonáticos recém explorados no Brasil pela Petrobras e que entraram em produção a partir de 2008. Para a produção de hidrocarbonetos é preciso um conhecimento profundo das rochas que os contém. Isto se deve ao fato que os sensores usados para detectar hidrocarbonetos no processo conhecido como perfilagem de poço na indústria petroleira são influenciados em suas medições pelas características das rochas. No caso deste trabalho, carbonatos do pré-sal, aparece uma complicação adicional em termos litológicos que é a presença do mineral Estevensita que não é comumente encontrado em ambientes carbonáticos. Em função de não haver uma forma de detectar sem ambiguidades o mineral Estevensita (rico em magnésio) com a Dolomita (também rica em magnésio), e levando-se em consideração o fato de que a Estevensita fecha os poros da rocha (rocha não reservatório) enquanto a Dolomita normalmente pode ser uma excelente rocha reservatório é de fundamental importância conhecer se o magnésio é proveniente da Estevensita ou do processo de dolomitização do carbonato (substituição de cálcio por magnésio). Não existe hoje em dia uma metodologia de perfilagem de poço que possa indicar a proveniência do magnésio. Estevensita ou Dolomita? Rocha reservatório ou não-reservatório? O objetivo deste trabalho é prover respostas às perguntas acima. Desenvolver uma forma de analisar os minerais presentes no pré-sal através da perfilagem e espectroscopia de poço e fazer a separação entre os diversos constituintes das rochas encontradas no pré-sal. O pré-sal brasileiro é constituído por litologia carbonática complexa, sendo a seção rifte formada por coquinas e a seção sag por microbialitos. Estas rochas foram depositadas antes da deposição da camada de sal no fim do Aptiano. Para atingir o resultado esperado neste trabalho serão utilizadas medições convencionais e não convencionais no laboratório com rochas análogas ao pré-sal e minerais puros tais como a Estevensita a fim de determinar respostas padrão para serem utilizados em programas de análise de registros de perfilagem. O produto final deste trabalho é desenvolver um procedimento para determinação de litologia no pré-sal brasileiro através de registros a cabo (wireline) ou enquanto se perfura (Logging While Drilling - LWD)