73 resultados para Processos estocàstics -- Models matemàtics
Resumo:
Esta dissertação de Mestrado pretende, numa primeira fase, identificar as condições gerais e os pressupostos da aplicação da ferramenta Análise do Valor (AV) e integrá-la nos Sistemas de Gestão da Qualidade. Pretende-se demonstrar a técnica e aumentar o seu conhecimento, assim como as várias abordagens do processo, as vantagens e os constrangimentos no seu uso, conduzir à ideia que poderá ser útil proceder a uma análise organizada e sistemática dos produtos/serviços existentes nas organizações, abrindo a hipótese a novas soluções para o produto/serviço de mais fácil produção/realização e ensaio ao menor custo. É realçada a importância do conceito da Análise do Valor demonstrando que se pode tornar numa ferramenta eficaz na melhoria dos produtos mas também de processos de fabrico e até em processos administrativos. Sendo a Qualidade entendida como um conjunto de características que um bem, produto ou serviço possui que o tornam apto para satisfazer na plenitude uma dada necessidade do seu utilizador, este trabalho também faz a ligação com os Sistemas de Gestão da Qualidade comparando dois referenciais, a Norma NP EN 12973 e a ISO 9001:2008. Numa segunda fase é realizada uma profunda abordagem à ferramenta QFD – Quality Function Deployment – como uma técnica complementar à aplicação prática da técnica AV e é realizado um estudo a um serviço pós-venda que inclui muitos dos seus conceitos e princípios. O trabalho foi realizado na empresa onde sou colaborador há cerca de 10 anos exercendo o cargo de “Service Manager Press/Post Press” ao departamento de serviço técnico e apoio ao cliente. Foi muito útil a demonstração prática para entendimento das dificuldades sentidas e dos obstáculos a ultrapassar. O trabalho termina com as conclusões do caso prático e as conclusões gerais, mencionando as definições dos aceleradores / obstáculos da aplicação da AV.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
O rio Febros é um pequeno curso de água, situado no concelho de Vila Nova de Gaia, com cerca de 15 km de extensão, cuja bacia hidrográfica ocupa uma área de aproximadamente 35,4 km2. Nasce em Seixezelo e desagua na margem esquerda do Rio Douro no Cais do Esteiro, em Avintes. Em Maio de 2008, um acidente de viação teve como consequência o derrame de cerca de quatro toneladas de ácido clorídrico que rapidamente convergiu às águas do rio. Apenas um dia depois, o pH desceu para três e muitos foram os peixes que morreram. A solução adoptada para evitar o desaire foi introduzir milhares de litros de água de modo a diluir o ácido presente, ao longo de todo o curso de água. Tal facto não evitou a destruição de parte de um ecossistema, que ainda nos dias de hoje se encontra em recuperação. De forma a avaliar-se o impacto destas possíveis perturbações sejam estas de origem antropogénica ou natural é necessário possuir conhecimentos dos processos químicos tais como a advecção, a mistura devida à dispersão e a transferência de massa ar/água. Estes processos irão determinar o movimento e destino das substâncias que poderão ser descarregadas no rio. Para tal, recorrer-se-á ao estudo hidrogeométrico do curso de água assim como ao estudo do comportamento de um marcador, simulando uma possível descarga. A rodamina WT será o marcador a ser utilizado devido à panóplia de características ambientalmente favoráveis. Os estudos de campo com este corante, realizados em sequência de descarga previamente estudada, fornecem uma das melhores fontes de informação para verificação e validação de modelos hidráulicos utilizados em estudos de qualidade de águas e protecção ambiental. Escolheram-se dois pontos de descarga no Febros, um em Casal Drijo e outro no Parque Biológico de Gaia, possuindo cada um deles, a jusante, duas estações de monitorização. Pelo modelo ADE os valores obtidos para o coeficiente de dispersão longitudinal para as estações Pontão d’ Alheira, Pinheiral, Menesas e Giestas foram, respectivamente, 0,3622; 0,5468; 1,6832 e 1,7504 m2/s. Para a mesma sequência de estações, os valores da velocidade de escoamento obtidos neste trabalho experimental foram de 0,0633; 0,0684; 0,1548 e 0,1645 m/s. Quanto ao modelo TS, os valores obtidos para o coeficiente de dispersão longitudinal para as estações Pontão d’ Alheira, Pinheiral, Menesas e Giestas foram, respectivamente, 0,2339; 0,1618; 0,5057e 1,1320 m2/s. Para a mesma sequência de estações, os valores da velocidade de escoamento obtidos neste trabalho experimental foram de 0,0652; 0,0775; 0,1891 e 0,1676 m/s. Os resultados foram ajustados por um método directo, o método dos momentos, e por dois métodos indirectos, os modelos ADE e TS. O melhor ajuste corresponde ao modelo TS onde os valores do coeficiente de dispersão longitudinal e da velocidade de escoamento são aqueles que melhor se aproximam da realidade. Quanto ao método dos momentos, o valor estimado para a velocidade é de 0,162 m/s e para o coeficiente de dispersão longitudinal de 9,769 m2/s. Não obstante, a compreensão da hidrodinâmica do rio e das suas características, bem como a adequação de modelos matemáticos no tratamento de resultados formam uma estratégia de protecção ambiental inerente a futuros impactos que possam suceder.
Resumo:
The first and second authors would like to thank the support of the PhD grants with references SFRH/BD/28817/2006 and SFRH/PROTEC/49517/2009, respectively, from Fundação para a Ciência e Tecnol ogia (FCT). This work was partially done in the scope of the project “Methodologies to Analyze Organs from Complex Medical Images – Applications to Fema le Pelvic Cavity”, wi th reference PTDC/EEA- CRO/103320/2008, financially supported by FCT.
Resumo:
Mestrado em Engenharia Química - Ramo optimização energética na indústria química
Resumo:
Existem, actualmente, facilidades e técnicas sem precedentes tendo como fim medir a interpretação musical: medição directa do instrumento, de gravações digitalizadas, medição de imagens vídeo de todo o corpo na interpretação ou só das mãos, medição das características espectrais da música interpretada, informação através de entrevistas com intérpretes e improvisadores, com grupos musicais, informação sobre o estudo do instrumento. Nunca até hoje houve tanto e tão detalhado conhecimento dos processos e manifestações da interpretação musical. Mas o que podem mostrar todas estas medições? Que questões colocam? Que características e que tipos de interpretação foram ignorados? Enfim, o que se aprendeu? E porque tem sido a interpretação musical alvo destas investigações? Este artigo considera e ilustra algumas das diferentes perspectivas de aproximação à interpretação musical, as questões que estes estudos levantam, e discute os sucessos, os fracassos e o futuro deste tipo de investigação.
Resumo:
Apresenta-se uma abordagem ao poder sancionatório aplicável nos procedimentos conduzidos pela Comissão Europeia na aplicai;:ao das regras substantivas e adjectivas de Direito da União Europeia em direito da concorrência.
Resumo:
In recent years several countries have set up policies that allow exchange of kidneys between two or more incompatible patient–donor pairs. These policies lead to what is commonly known as kidney exchange programs. The underlying optimization problems can be formulated as integer programming models. Previously proposed models for kidney exchange programs have exponential numbers of constraints or variables, which makes them fairly difficult to solve when the problem size is large. In this work we propose two compact formulations for the problem, explain how these formulations can be adapted to address some problem variants, and provide results on the dominance of some models over others. Finally we present a systematic comparison between our models and two previously proposed ones via thorough computational analysis. Results show that compact formulations have advantages over non-compact ones when the problem size is large.
Resumo:
Adhesively-bonded joints are extensively used in several fields of engineering. Cohesive Zone Models (CZM) have been used for the strength prediction of adhesive joints, as an add-in to Finite Element (FE) analyses that allows simulation of damage growth, by consideration of energetic principles. A useful feature of CZM is that different shapes can be developed for the cohesive laws, depending on the nature of the material or interface to be simulated, allowing an accurate strength prediction. This work studies the influence of the CZM shape (triangular, exponential or trapezoidal) used to model a thin adhesive layer in single-lap adhesive joints, for an estimation of its influence on the strength prediction under different material conditions. By performing this study, guidelines are provided on the possibility to use a CZM shape that may not be the most suited for a particular adhesive, but that may be more straightforward to use/implement and have less convergence problems (e.g. triangular shaped CZM), thus attaining the solution faster. The overall results showed that joints bonded with ductile adhesives are highly influenced by the CZM shape, and that the trapezoidal shape fits best the experimental data. Moreover, the smaller is the overlap length (LO), the greater is the influence of the CZM shape. On the other hand, the influence of the CZM shape can be neglected when using brittle adhesives, without compromising too much the accuracy of the strength predictions.
Resumo:
Transdermal biotechnologies are an ever increasing field of interest, due to the medical and pharmaceutical applications that they underlie. There are several mathematical models at use that permit a more inclusive vision of pure experimental data and even allow practical extrapolation for new dermal diffusion methodologies. However, they grasp a complex variety of theories and assumptions that allocate their use for specific situations. Models based on Fick's First Law found better use in contexts where scaled particle theory Models would be extensive in time-span but the reciprocal is also true, as context of transdermal diffusion of particular active compounds changes. This article reviews extensively the various theoretical methodologies for studying dermic diffusion in the rate limiting dermic barrier, the stratum corneum, and systematizes its characteristics, their proper context of application, advantages and limitations, as well as future perspectives.
Resumo:
Dynamic parallel scheduling using work-stealing has gained popularity in academia and industry for its good performance, ease of implementation and theoretical bounds on space and time. Cores treat their own double-ended queues (deques) as a stack, pushing and popping threads from the bottom, but treat the deque of another randomly selected busy core as a queue, stealing threads only from the top, whenever they are idle. However, this standard approach cannot be directly applied to real-time systems, where the importance of parallelising tasks is increasing due to the limitations of multiprocessor scheduling theory regarding parallelism. Using one deque per core is obviously a source of priority inversion since high priority tasks may eventually be enqueued after lower priority tasks, possibly leading to deadline misses as in this case the lower priority tasks are the candidates when a stealing operation occurs. Our proposal is to replace the single non-priority deque of work-stealing with ordered per-processor priority deques of ready threads. The scheduling algorithm starts with a single deque per-core, but unlike traditional work-stealing, the total number of deques in the system may now exceed the number of processors. Instead of stealing randomly, cores steal from the highest priority deque.
Resumo:
This paper describes the use of integer and fractional electrical elements, for modelling two electrochemical systems. A first type of system consists of botanical elements and a second type is implemented by electrolyte processes with fractal electrodes. Experimental results are analyzed in the frequency domain, and the pros and cons of adopting fractional-order electrical components for modelling these systems are compared.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
The problem of providing a hybrid wired/wireless communications for factory automation systems is still an open issue, notwithstanding the fact that already there are some solutions. This paper describes the role of simulation tools on the validation and performance analysis of two wireless extensions for the PROFIBUS protocol. In one of them, the Intermediate Systems, which connect wired and wireless network segments, operate as repeaters. In the other one the Intermediate Systems operate as bridge. We also describe how the analytical analysis proposed for these kinds of networks can be used for the setting of some network parameters and for the guaranteeing real-time behaviour of the system. Additionally, we also compare the bridge-based solution simulation results with the analytical results.