60 resultados para Equações de previsão de movimentos
Resumo:
Empresas mantêm estoques como forma de antecipar a necessidade do cliente, usufruindo, assim, de vantagem competitiva. No entanto, há custos associados a esses estoques, devendo haver um balanceamento em relação ao diferencial que a sua existência pode trazer. O aumento dos níveis de competitividade no mercado obriga as companhias a diminuírem seus custos, reduzindo, pois, parte de seu estoque, podendo provocar perdas de vendas por falta de mercadoria. O desafio é prever com a maior precisão possível qual a quantidade requerida de cada produto e o momento certo em que o mesmo será necessário. É nesse sentido que a Análise e Previsão de Demanda vem sendo utilizada como ferramenta para diminuir a distância entre a necessidade e a disponibilidade de estoque. Esta dissertação descreve as vantagens competitivas da manutenção do estoque e os custos a ele associados, bem como os tipos de demanda, além dos métodos de Análise e Previsão de Demanda como forma de minimizar custos, melhorando o nível e a disponibilidade de estoque. Para tanto, foi desenvolvido um estudo de caso em uma empresa do ramo comercial com o propósito de validar as técnicas descritas para futura utilização em todas as linhas e marcas de produtos comercializados pela companhia estudada.
Resumo:
A demanda de energia elétrica tem aumentado consideravelmente com o observado crescimento da atividade industrial, exigindo o desenvolvimento de novas tecnologias para aumentar a capacidade de transporte de energia por linha. Neste sentido, as linhas de transmissão de alta voltagem, anteriormente formadas por condutores isolados, podem ter a sua capacidade expressivamente incrementada dispondo-se os condutores em feixes, ou seja, com mais de um condutor por fase. A ação do vento nos condutores em forma de feixes originam problemas vibratórios diferentes daqueles comumente encontrados em condutores isolados. Além de oscilações por galope e desprendimento de vórtices, feixes são suscetíveis a oscilações de baixa freqüência causada pelo efeito de interferência das esteiras entre os condutores. Estas oscilações são de dois tipos: (i) movimento de sub-vão, que é característico do condutor a sotavento, o qual pode-se deslocar independentemente dos outros condutores vizinhos, e (ii) movimento de vão completo, no qual movimentos do feixe ocorrem no vão compreendido entre as torres de suporte. Alguns trabalhos na literatura consideram os movimentos de vão completo em condutores coberto por gelo, mas pouca informação se tem sobre o estudo de oscilações em feixes sem a presença de gelo. Devido a complexidade destes fenômenos, não há ainda critérios claros quanto à estabilidade do feixe para as configurações usuais de linhas deste tipo. Este trabalho tem então como objetivo inicial apresentar as principais características dinâmicas de condutores isolados e em feixes. Além disso, apresentar uma análise dos parâmetros que influenciam os movimentos, dentre os quais são citados: características do terreno, velocidade e turbulência do vento, número e arranjo dos condutores, rugosidade do condutor, espaçamento entre condutores, inclinação do feixe, sistemas de espaçadores e de suspensão, tração do condutor, freqüências naturais e efeito de flecha. Ensaios em túnel de vento são normalmente realizados com o propósito de obter-se dados de tipos específicos de condutores e configurações de feixes de condutores. Posteriormente, estes dados podem ser utilizados na análise teórica dos movimentos dos condutores a fim de prever-se a estabilidade dos mesmos. Neste trabalho foram projetados experimentos do tipo estático, que permitiram a obtenção dos coeficientes aerodinâmicos e suas derivadas em relação aos ângulos de incidência do vento em feixes de cabos. Para isto utilizaram-se duas células de carga com extensômetros, onde em uma delas mediu-se diretamente as forças de arrasto e de sustentação e na outra os momentos de torção. Os experimentos foram conduzidos no túnel de vento Prof. Joaquim Blessmann, da UFRGS. Os modelos eram compostos por condutores rígidos de pequeno comprimento que estavam dispostos isoladamente, em feixe de 02 cabos dispostos lado-a-lado ou em feixes de 04 cabos dispostos na configuração de um quadrado. Os ensaios foram realizados para diferentes espaçamentos entre os cabos (10, 14, 18 e 22 diâmetros), para diversos ângulos de inclinação do feixe (0o a 45o) e ainda para diferentes velocidades e condições de escoamento (suave ou turbulento). Os ensaios foram realizados com cabos lisos e cabos do tipo Rook ACSR 24/7, a fim de analisar-se a influência da rugosidade no comportamento dos modelos. Adicionalmente, foi desenvolvida uma aplicação da análise do problema de instabilidade dinâmica através da utilização de equações linearizadas do movimento de condutores em feixe. A partir destas equações, determinam-se as regiões de instabilidade das oscilações de vão completo, em feixes de dois e quatro condutores. Os coeficientes aerodinâmicos utilizados nestas equações foram aqueles determinados nos ensaios no túnel de vento Prof. Blessmann. Finalmente, o conhecimento da influência dos parâmetros vinculados as características do feixe, vão e vento incidente nos coeficientes aerodinâmicos e na conseqüente estabilidade do feixe, possibilita a determinação de alguns critérios de projeto que garantam maior estabilidade dos feixes de condutores.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Este trabalho é sobre produção de sentidos. Seu propósito está relacionado à investigação das relações do sujeito com a linguagem na sua forma de escrita alfabética no processo de produção textual escolar. O fato de ocorrer a partir da análise de falas de crianças ao escreverem coletivamente histórias no computador possui dois objetivos; de um lado, interrogar sobre a representação do sujeito no texto e, de outro, questionar a utilização do computador nas escolas como uma nova tecnologia da escrita. Para que fosse possível dar alguma visibilidade ao processo de produção textual e não restringir-se apenas ao produto final, quer dizer à história pronta, optou-se por uma metodologia que permitisse algum tipo de acesso ao modo como a criança produzia o texto. Uma solução viável foi encontrada na gravação das situações interativas de conversação, em que cada grupo de alunos estaria produzindo sua história no computador. Esta gravação tornou-se o material a ser analisado. O referencial teórico está fundamentado na psicanálise, a partir de Jacques Lacan, na lingüística enunciativa, representada por Jaqueline Authier-Revuz e na análise de discurso inaugurada por Michel Pêcheux. Seguindo estas teorias, analisamos o sujeito da enunciação e o inconsciente enquanto discurso do Outro. A análise buscou a indicação de autonímias, onde destacam-se as “não-coincidências do dizer”, termo cunhado por Authier-Revuz para explicitar a presença do outro na constituição do discurso. A partir da análise apontamos para o sujeito como um efeito de leitura do discurso do Outro, um acontecimento que reconfigura a estrutura. Disso segue que todo discurso parte de uma escrita, pois se abre à leitura. Também apontamos para a escrita como a presentificação da diferença. Neste sentido postulamos que a autonímia é constitutiva do discurso pedagógico no que se refere à aprendizagem da língua escrita. Ela é um recurso necessário ao alfabeto. Sem a possibilidade da autonímia seria impossível o ensino da língua.. A partir destes resultados temos indícios que confirmam a hipótese de que o computador é uma nova tecnologia da escrita, assim como foram uma vez o papiro, o alfabeto, a imprensa. De certo modo a questão do sujeito e da linguagem ainda é a mesma, ou seja, diante do real o que o sujeito demanda é que ele seja representável. A forma que esta representação vai tomar depende dos discursos em questão.
Resumo:
Atualmente observa-se que uma grande parte das estruturas de concreto armado estão apresentando problemas relacionados à corrosão das armaduras, principalmente aquela iniciada pelos íons cloreto. Nesse sentido, muitos estudos estão sendo realizados a fim de prever o tempo necessário para que os íons cloreto atinjam a armadura, iniciando assim a propagação do processo corrosivo. Existem alguns parâmetros relacionados ao concreto e ao meio ambiente que exercem uma grande influência na penetração de íons cloreto. Entre os fatores relacionados ao concreto, verifica-se que o coeficiente de difusão de cloretos, a concentração superficial de cloretos, a relação água/cimento, a espessura de cobrimento, a presença e a quantidade de adições são alguns parâmetros que interferem na vida útil de projeto das estruturas. Já em relação às condições ambientais, os principais fatores que afetam a vida útil são a umidade relativa e a temperatura de exposição. Assim, procurou-se avaliar o efeito de tais variáveis na vida útil das estruturas, considerando as mesmas como grandezas aleatórias, apresentando um determinado valor médio e um desvio-padrão característico. Essas variáveis aleatórias foram inseridas em alguns modelos matemáticos que são empregados para a previsão da vida útil das estruturas − 2ª Lei de Fick e os modelos propostos por UJI et al. (1990) e por MEJLBRO (1996). A partir daí, realizou-se uma análise de confiabilidade a partir de um método de simulação numérica (Simulação de Monte Carlo) a fim de se determinar a probabilidade de falha no tempo para concretos feitos com diferentes tipos de cimento e adições, quando inseridos em condições ambientais distintas A fim de contribuir no processo de previsão da vida útil das estruturas quando inseridas em ambientes contendo cloretos, foi desenvolvido um modelo matemático baseado na análise em Grupos Focalizados (ou Focus Groups). Algumas das principais características do modelo proposto são a lógica empregada no seu desenvolvimento e a grande facilidade de aplicação do mesmo. O comportamento do modelo se mostrou consistente com os resultados de investigações experimentais realizadas por outros pesquisadores, onde o mesmo foi aplicado em um estudo de caso para verificar a resposta em relação à penetração de cloretos em alguns pontos de uma estrutura de concreto armado inserida em área salina.
Resumo:
Neste trabalho, duas equações modedlo na área da dinâmica de gases rarefeitos, são derivadas a partir de algumas soluções exatas da equação linearizada de Boltzmann homogênea e não homogênea. Em adição, uma versão analítca do método de ordenadas discretas é usado para resolver problemas clássicos nesta área, descritos pelo "Modelo S". Resultados numéricos são apresentados para os problemas de fluxo de Couette, fluxo de Poiseuille, "Creep" Térmico, Deslizamento Térmico e problema de Kramers.
Resumo:
Neste trabalho são provadas algumas estimativas de erro em espaços para as aproximações de Galerkin para a solução do sistema de equações de Navier-Stokes. Mostra-se que o erro decresce em proporção inversa aos autovalores do operador de Stokes.
Resumo:
Esta dissertação analisa a evolução da irregularidade longitudinal de pavimentos, devida à execução de recapes em concreto asfáltico. Consideraram-se nove trechos de rodovias, totalizando aproximadamente 265 km, com estruturas representativas da malha viária do Estado do Rio Grande do Sul. Registraram-se irregularidades antes e após o recape, e as reduções medidas foram comparadas com valores previstos pelos modelos linear e bilinear propostos pelo programa HDM-4 do Banco Mundial. As diferenças entre reduções previstas e medidas alertaram para a necessidade de ajuste dos modelos em alguns casos, levando em conta as estruturas dos pavimentos e as espessuras de recape analisadas. Propõe-se nesta dissertação valores para os parâmetros ajustáveis dos modelos, com cuja aplicação foram minimizadas as diferenças entre as reduções medidas e previstas. De forma complementar, desenvolveu-se um estudo de sensibilidade para determinar o efeito que as diferenças, por ventura existentes, entre espessuras projetadas e executadas de recape poderiam ter na redução da irregularidade. Também, por meio de uma análise estatística, obteve-se um modelo para previsão da redução da irregularidade em função da espessura do recape e da irregularidade anterior à execução do mesmo.
Resumo:
Esta é uma investigação realizada no Colégio de Aplicação da Universidade Federal do Rio Grande do Sul - Brasil, sobre as tensões provocadas pela presença de um projeto de ensino interdisciplinar para 5as e 6as séries do Ensino Fundamental: O Projeto Amora. Propõe um olhar compreensivo sobre esta crise através de uma perspectiva teórico-metodológica alicerçada, principalmente, em Edgar Morin, Michel Maffesoli, Georges Balandier, Rodolfo Kusch e Humberto Maturana, procurando colocar em evidência, uma duplicidade antropológica de nossa cultura (o dever-ser e o estar) enquanto atitudes distintas mas co-existentes frente às incertezas e mudanças paradigmáticas de um mundo sempre em movimento e integração. A partir desta perspectiva, a investigação procura mostrar algumas das resistências geradas com a presença do Projeto Amora, que se revelam tanto nas relações humanas como epistemológicas. Ao mesmo tempo em que procura compreender e acolher estas resistências, a investigação as relativiza através da apresentação de algumas das potencialidades éticas e estéticas que o Projeto Amora sugere, vividas pelos seus alunos, alunas, professores e professoras. Para além de uma educação prioritariamente produtivista, individualista e de resultados, procurou-se mostrar as possibilidades de um novo estar na escola onde qualquer saber pode ser considerado, compartilhado e vivido em conjunto com o outro e de onde pode surgir uma ética compreensiva da convivência e da inteireza humanas.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
Resumo não disponível
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.