993 resultados para Tempo de Parada Ótimo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é composta de três artigos sobre finanças. O primeiro tem o título "Nonparametric Option Pricing with Generalized Entropic Estimators " e estuda um método de apreçamento de derivativos em mercados incompletos. Este método está relacionado com membros da família de funções de Cressie-Read em que cada membro fornece uma medida neutra ao risco. Vários testes são feitos. Os resultados destes testes sugerem um modo de definir um intervalo robusto para preços de opções. Os outros dois artigos são sobre anúncios agendados em diferentes situações. O segundo se chama "Watching the News: Optimal Stopping Time and Scheduled Announcements" e estuda problemas de tempo de parada ótimo na presença de saltos numa data fixa em modelos de difusão com salto. Fornece resultados sobre a otimalidade do tempo de parada um pouco antes do anúncio. O artigo aplica os resultados ao tempo de exercício de Opções Americanas e ao tempo ótimo de venda de um ativo. Finalmente o terceiro artigo estuda um problema de carteira ótima na presença de custo fixo quando os preços podem saltar numa data fixa. Seu título é "Dynamic Portfolio Selection with Transactions Costs and Scheduled Announcement" e o resultado mais interessante é que o comportamento do investidor é consistente com estudos empíricos sobre volume de transações em momentos próximos de anúncios.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Matematica Aplicada e Computacional - FCT

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper purpose is to analyze one of the main problems faced by cold rolling industry of the current time, the mechanical vibration. Factors such as strips with high velocity in order to increase the productivity and thickness becoming thinner and thinner cause the vibrations to be present at all times during rolling. These market requirements also drive the industry for technology development and thus bring the challenges that the operation of a new modern equipment and more powerful. The initial purpose is to analyze the forces that cause vibration in a rolling mill type four high with two stands, where is desirable to identify the origins of these vibrational forces to make possible dismiss them or at least control its intensity, in order to prevent damage in the rolling mill and ensure product quality to the customer. For it, will be used instruments to record and store the vibrations that occur during the lamination process. With this data will be able to analyze the characteristics of the vibrations and act at your elimination. At the end of the work is expected to demonstrate how important the critical view of the engineer in the analysis of graphics combined with the calculations of the natural vibration frequency and engagement of key parts of the laminator. With these two tools at hand, will be possible to increase the productivity of the rolling mill and act preventively in maintenance, thereby reducing your downtime and increasing its performance and efficiency

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper purpose is to analyze one of the main problems faced by cold rolling industry of the current time, the mechanical vibration. Factors such as strips with high velocity in order to increase the productivity and thickness becoming thinner and thinner cause the vibrations to be present at all times during rolling. These market requirements also drive the industry for technology development and thus bring the challenges that the operation of a new modern equipment and more powerful. The initial purpose is to analyze the forces that cause vibration in a rolling mill type four high with two stands, where is desirable to identify the origins of these vibrational forces to make possible dismiss them or at least control its intensity, in order to prevent damage in the rolling mill and ensure product quality to the customer. For it, will be used instruments to record and store the vibrations that occur during the lamination process. With this data will be able to analyze the characteristics of the vibrations and act at your elimination. At the end of the work is expected to demonstrate how important the critical view of the engineer in the analysis of graphics combined with the calculations of the natural vibration frequency and engagement of key parts of the laminator. With these two tools at hand, will be possible to increase the productivity of the rolling mill and act preventively in maintenance, thereby reducing your downtime and increasing its performance and efficiency

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Atualmente existe uma gama considerável de procedimentos assistenciais de saúde os quais, seja por cultura, ou por exigências legais, só podem ser realizados com aporte tecnológico. Logo reduzir o tempo de parada de um equipamento médico está diretamente associado à viabilização da assistência necessária ao paciente. Em outras palavras, prestar uma manutenção otimizada representa qualidade na prestação de serviço da unidade assistencial de saúde, podendo em alguns casos, até, evitar a morte do paciente. Para isso é muito importante que os defeitos sejam reconhecidos e tratados adequadamente, não se esquecendo da otimização dos recursos financeiros. Com base nesta premissa, este trabalho propõe estabelecer uma relação dos tipos de defeitos apresentados pelos equipamentos com sua ocorrência, utilizando para tal o método de Pareto, fornecendo uma ferramenta de análise de grande utilidade na estruturação de grupos de manutenção corretiva de um serviço de engenharia clínica. Assim foram tomados como amostra quatro tipos de equipamentos que são eletrocardiógrafos, monitores cardíacos, unidades eletrocirúrgicas e incubadoras neonatais; caracterizando a existência de defeitos que podem ser classificados em baixa, média e alta complexidade de resolução, o que reflete na necessidade de ferramentas gerais ou específicas ao reparo e do nível de qualificação da equipe técnica, além do universo de componentes, partes e peças envolvidas com cada etapa de manutenção. Foram qualificados e quantificados defeitos para cada tipo de equipamentos acima, onde se constatou que nos equipamentos médico-hospitalares estudados, a maioria das paradas requisitou intervenções simples, de baixa complexidade. Ou seja, poucos defeitos foram responsáveis por muitas ordens de serviço e que o corpo técnico de manutenção pode esperar e se programar para atuar em cada um deles de acordo com o gráfico de Pareto. Desta forma o serviço de engenharia clínica pode ser direcionado para as necessidades prioritárias do estabelecimento assistencial de saúde, sendo capaz de produzir resultados com melhor custo-benefício.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

É muito importante para a indústria fornecer produtos competitivos e que exerçam corretamente as suas funções perante o cliente. Uma das ferramentas existentes para atingir estes objetivos é a realização de testes de fadiga e durabilidade cada vez mais refinados e em espaço mais curto de tempo. Uma das maneiras de se executar testes de fadiga mais precisos é utilizando parâmetros que sejam fiéis à solicitação que o produto sofre durante o seu uso. Com esse intuito surgiram os testes de fadiga sob amplitude variável. Juntamente com eles surgem as particularidades deste tipo de solicitação, que é de natureza complexa. Algumas particularidades são a dependência do resultado na história de carregamento (também chamada de \"interação de cargas\") e a variação abrupta do nível de carga durante o tempo de aplicação. Fenômenos estes chamados de sobrecarga ou subcarga (overload e underload), que aqui serão agrupados, muitas vezes de forma simplista, de perturbações no espectro de fadiga. A finalidade principal deste trabalho é descrever a influência das perturbações ocorridas nas solicitações nos testes de fadiga em regime de amplitude variável, mais precisamente em testes de bancada, em que se busca a reprodução de situações de trabalho reais de um componente. Apesar de esse assunto ser alvo de diversas investigações recentes, nenhum trabalho tem como foco a influência das paradas (completa remoção de carga) realizadas durante um teste de fadiga acelerado. Essas paradas são extremamente comuns na prática laboratorial, seja por manutenção do equipamento, inspeção da amostra ou necessidade de operação. O objeto alvo de estudo nesta pesquisa é um suporte metálico de buzina, utilizado em automóveis de passeio. Apesar de sua concepção simples, tal componente é responsável por exercer funções importantes e é sujeito a uma interessante gama de solicitações. Como resultado observou-se que a aplicação das paradas durante os testes de fadiga simulados no componente automotivo, provoca variações em sua vida útil total. E o tempo de parada também exerce influência nesta variação observada. Essas paradas não se encaixam perfeitamente nas classificações de perturbações no espectro registradas na literatura. Por esse motivo o trabalho se propõe ainda a sintetizar e uniformizar a terminologia para as variações abruptas de tensão aplicadas no tempo (as sobrecargas e as subcargas), tendo em vista que ocorre a falta de consenso entre os termos utilizados atualmente na literatura e seus respectivos conceitos.

Relevância:

40.00% 40.00%

Publicador:

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.