945 resultados para Previsão com metodologia de Box-Jenkis
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
A utilização intensiva e simultânea de agrotóxicos na agricultura ocasiona a exposição múltipla dos organismos a esses compostos, tornando necessária a avaliação da contaminação de misturas, principalmente, no ambiente aquático. Estudos de toxicidade de agrotóxicos são de suma importância para a comunidade como um todo, principalmente quando estes são realizados em águas, haja vista a possível escassez desse recurso. O objetivo deste trabalho foi avaliar a toxicidade aguda dos herbicidas glifosato (Gly) e seu principal metabólito, ácido aminometilfosfônico (AMPA), ao microcrustáceo Daphnia similis.
Resumo:
A argila encontrada na Barra da Tijuca, Rio de Janeiro, é conhecida por ser muito mole e de peso específico bastante baixo. Passados 17 anos após a execução de um aterro em um dos depósitos argilosos da região, foram realizados ensaios de piezocone e SPT para aferir a espessura atual da camada mole. Tendo-se as espessuras originais da camada, determinadas a partir de ensaios de palheta e SPT na época da realização da obra, foi possível,assim, determinar o recalque que realmente ocorreu. O recalque primário foi calculado através dos parâmetros de compressibilidade previamente conhecidos daquele material. Foi aplicada a correção devido à submersão do aterro e, para isso, foi desenvolvida neste trabalho uma nova metodologia de cálculo para este efeito, considerando a submersão do aterro de forma gradual em todo o seu desenvolvimento matemático. Através da diferença entre o recalque total verificado nos ensaios e o recalque primário calculado, determinou-se a magnitude do recalque secundário. Com isso, estimou-se o OCR secundário do local. Este parâmetro surge da teoria que considera que os recalques secundários também ocorrem devido à variação das tensões efetivas, mas, nesse caso, horizontais. As principais conclusões desta pesquisa apontam para um valor de OCR secundário maior do que aquele já conhecido da argila de Sarapuí, que serviu de base para a referida teoria. Além disso, a proposta de cálculo do efeito da submersão se mostrou fácil e rápida de ser aplicada e forneceu resultados próximos daqueles obtidos pelas metodologias usuais.
Resumo:
Dissertação mest., Oceanografia, Universidade do Algarve, 2009
Resumo:
Esta dissertação utiliza a metodologia Data Envelopment Analysis (DEA) no contexto da previsão de falência empresarial dentro do setor da restauração em Portugal. Em particular, utiliza-se uma amostra total de 222 empresas deste ramo de atividade, das quais 33 entram em situação de falência entre 2010 e 2011. A utilização do DEA no nosso contexto de investigação permite classificar corretamente um terço das empresas que acabaram por falir no nosso período amostral. Por outro lado, a mesma metodologia permite identificar corretamente 93,3% das empresas não falidas da amostra e concluir ainda que a diferença entre os rácios destes dois grupos de empresas aumentava à medida que o ano de falência se aproximava, algo que demonstra a utilidade prática da aplicação do DEA na previsão de falência no setor da restauração nacional.
Resumo:
Dissertação para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia
Resumo:
Este trabalho apresenta o estudo das leis de propagação das velocidades de vibração resultantes do uso de explosivo em diferentes maciços. Foram efectuados estudos para três tipos de maciços diferentes, granito, quartzito e calcário. Efectuaram-se campanhas de monitorização e registo dos dados em cada uma das situações. Caracterizando e utilizando duas leis de propagação de velocidades no maciço, a de Johnson e Langefors, calculou-se as suas variáveis por método estatístico de regressões lineares múltiplas. Com a obtenção das variáveis fizeram-se estudos de previsão dos valores de vibração a obter utilizando a carga explosiva aplicada nos desmontes. Através dos valores de vibração obtidos em cada pega de fogo para cada tipo de maciço comparou-se quais das duas leis apresentam o valor de velocidade de vibração menor desviado do real. Conforme ficou verificado neste estudo, a equação de Langefors garante uma mais-valia da sua aplicação na previsão das velocidades de vibração pois joga favoravelmente a nível da segurança assim como apresenta um menor desvio face à equação de Johnson quando comparada com o valor real de vibração obtido. Com isto o método de utilização de regressões lineares múltiplas como cálculo dos efeitos vibratórios é extremamente vantajoso a nível de prevenção de danos e cálculo de velocidades de vibração inferiores ao imposto pela Norma.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística
Resumo:
As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.
Resumo:
Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.
Resumo:
Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentáveis, pela Universidade Nova de Lisboa, Faculdade de Ciência e Tecnologia
Resumo:
A metodologia TRIZ conhecida como Teoria de Resolução Inventiva de problemas é uma ferramenta de análise, previsão e resolução de problemas que como o seu nome indica, é orientada ao ser humano e é baseada no conhecimento. Uma das suas caraterísticas passa pela inovação, sendo uma boa forma de uma organização se diferenciar através de soluções inovadoras e criativas, que poderão causar grandes vantagens competitivas face à concorrência. Um projeto é uma atividade temporária, de curta ou longa duração, em que o seu objetivo passa pela criação ou alteração de um produto ou serviço já criado anteriormente, sendo para tal muito importante haver alguém responsável pela gestão desse mesmo projeto, onde será feita a aplicação de conhecimento, técnicas e ferramentas em todo o seu ciclo de vida até se chegar ao objetivo definido. A metodologia TRIZ é uma das ferramentas que pode ser aplicada por gestores de projeto, de modo a encontrar soluções inventivas na resolução de problemas que possam surgir. Na presente dissertação o estudo desenvolvido foi feito ao abrigo de uma empresa de consultoria (Winsig), que trabalha com o software PHC e Sage X3. Estas ferramentas informáticas disponibilizam às mais variadas empresas a possibilidade de executar vários serviços essenciais como contabilidade, gestão dos ativos, gestão de stocks, gestão de clientes, logística e distribuição, orçamentos entre outros, tudo informaticamente. Os seus consultores são especializados nestes dois softwares e as suas funções passam por encontrar soluções integradas de gestão, através da comercialização, implementação e prestação de apoio técnico deste tipo de software. Assim sendo este estudo concentrou-se em provar que é possível implementar a metodologia TRIZ em projetos de consultoria independentemente da área de negócio em que esses mesmos projetos se inserem.
Resumo:
O tema da presente tese é a demanda do gás natural em um novo mercado, que se encontra em expansão.O objetivo geral é o desenvolvimento de uma metodologia para a previsão de demanda do gás natural, estabelecendo um método que integre as diversas alternativas de previsão de demanda desenvolvidas. Primeiramente, é feita uma revisão da literatura abordando os seguintes temas: (i) demanda de energia no Brasil e no mundo; (ii) demanda de gás natural no Brasil e no mundo; (iii) oferta de gás natural no Rio Grande do Sul; (iv) modelos de previsão de demanda energética; (v) pesquisa qualitativa e grupos focados. São, então, desenvolvidas as alternativas para a previsão de demanda de gás natural: (i) baseado em dados históricos do Rio Grande do Sul: com base no comportamento pregresso da demanda energética estadual faz-se uma extrapolação dos dados de demanda futuros, estimando-se um percentual de participação do gás natural neste mercado; (ii) baseado em equações de previsão que se apóiam em dados sócio-econômicos: tomando-se como embasamento o tamanho da população, PIB, número de veículos da frota do estado, e as respectivas taxas de crescimento de cada uma destas variáveis, estima-se o potencial consumo de gás natural (iii) baseado em dados históricos de outros países: tomando-se por base os dados de países onde já se encontra consolidado o mercado de gás natural, faz-se uma analogia ao caso brasileiro, particularmente o estado do Rio Grande do Sul, visualizando o posicionamento deste mercado frente à curva de crescimento e amadurecimento do mercado consolidado; (iv) baseado na opinião dos clientes potenciais: através de grupos focados, busca-se a compreensão das variáveis que influenciam as decisões dos consumidores de energia, bem como a compreensão das soluções de compromisso (trade off) realizadas quando da escolha dos diferentes energéticos, utilizando-se técnicas do tipo “preferência declarada”; (v) baseado na opinião de especialistas: através de grupos focados com profissionais do setor energético, economistas, engenheiros e administradores públicos busca-se o perfil de demanda esperado para o gás natural. São aplicadas as alternativas individuais à previsão da demanda do gás natural no estado do Rio Grande do Sul, verificando a necessidade de adaptações ou desenvolvimentos adicionais das abordagens individuais. Neste momento, começa-se a construção do método integrador, partindo-se da visualização de benefícios e carências apresentados por cada alternativa individual. É, então, elaborada uma proposta para integrar os resultados das diversas abordagens. Trata-se da construção de um método para a previsão de demanda energética de gás natural que compatibiliza resultados qualitativos e quantitativos gerados nas abordagens individuais. O método parte de diferentes inputs, ou seja, os dados de saída gerados por cada abordagem individual, chegando a um output único otimizado em relação à condição inicial. A fase final é a aplicação do método proposto à previsão de demanda de gás natural no estado do Rio Grande do Sul, utilizando a base de dados gerada para o estudo particular do estado.
Resumo:
Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.
Resumo:
Resumo não disponível.