1000 resultados para Complexidade : Algoritmos recursivos : Equações características
Resumo:
O tolueno tem uma vasta aplicação industrial e apresenta alguns riscos para a saúde humana. Legislação comunitária, recentemente publicada, exige que se cumpra a médio prazo padrões mínimos de qualidade apontando como limite máximo de concentração de tolueno na água destinada a consumo humano o valor de 1 ppm. O processo de arrastamento por ar em colunas com enchimento desordenado é uma das técnicas de remoção disponíveis, embora ainda pouco implementada no nosso país. Neste trabalho simulou-se, laboratorial e numericamente, a remoção do tolueno da água através desta tecnologia sob condições operatórias pré-estabelecidas. A simulação à escala laboratorial foi executada numa instalação piloto constituída por uma coluna de vidro acrílico com 0.137metros de diâmetro interno preenchida desordenadamente com anéis Raflux de polietileno com 15milímetros de calibre numa altura de 1.10 metros. A experimentação efectuada abrangeu ensaios realizados quer em regime permanente quer em regime transitório. As simulações numéricas do comportamento de uma coluna com idênticas características, em estado estacionário e em estado transiente, foram efectuadas com “software” específico concebido para MatLab. Este software permite a descrição do regime hidrodinâmico e da transferência de massa deste processo de acordo com os modelos de Robbins [Robbins, 1991] e Onda [Onda, 1968], respectivamente, inseridos num modelo global fenomenológico traduzido num sistema de equações às derivadas parciais de 1ª ordem, do tipo hiperbólico, com uma variável espacial axial e uma variável temporal. A resolução deste modelo é efectuada através de algoritmos e estratégias específicas nomeadamente a implementação numérica dos métodos explícito de Euler para resolução do sistema de ED0s que traduz o estado estacionário primitivo e de diferenças finitas com esquema explícito associado a manipulação de matrizes esparsas para resolução do sistema de EDPs que traduz o estado dinâmico. A concordância entre os resultados obtidos na teoria e na prática, pese embora as dificuldades encontradas no controlo analítico das amostras, permite concluir que o modelo proposto possui um rigor fenomenológico suficiente e que o modelo numérico associado possibilita um elevado grau de exactidão e de fiabilidade. A aplicação desenvolvida pode constituir uma importante ferramenta de apoio à análise dinâmica desta operação unitária à escala industrial, reduzindo o esforço experimental e os respectivos custos associados. Constitui igualmente a base para uma implementação de um potencial sistema de controlo por actuação antecipada com base num modelo que reveste a forma de um sistema de parâmetros distribuídos.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciência Política e Relações Internacionais – variante de Relações Internacionais
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
Dissertação de Mestrado em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Electricity markets worldwide are complex and dynamic environments with very particular characteristics. These are the result of electricity markets’ restructuring and evolution into regional and continental scales, along with the constant changes brought by the increasing necessity for an adequate integration of renewable energy sources. The rising complexity and unpredictability in electricity markets has increased the need for the intervenient entities in foreseeing market behaviour. Market players and regulators are very interested in predicting the market’s behaviour. Market players need to understand the market behaviour and operation in order to maximize their profits, while market regulators need to test new rules and detect market inefficiencies before they are implemented. The growth of usage of simulation tools was driven by the need for understanding those mechanisms and how the involved players' interactions affect the markets' outcomes. Multi-agent based software is particularly well fitted to analyse dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. Several modelling tools directed to the study of restructured wholesale electricity markets have emerged. Still, they have a common limitation: the lack of interoperability between the various systems to allow the exchange of information and knowledge, to test different market models and to allow market players from different systems to interact in common market environments. This dissertation proposes the development and implementation of ontologies for semantic interoperability between multi-agent simulation platforms in the scope of electricity markets. The added value provided to these platforms is given by enabling them sharing their knowledge and market models with other agent societies, which provides the means for an actual improvement in current electricity markets studies and development. The proposed ontologies are implemented in MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) and tested through the interaction between MASCEM agents and agents from other multi-agent based simulators. The implementation of the proposed ontologies has also required a complete restructuring of MASCEM’s architecture and multi-agent model, which is also presented in this dissertation. The results achieved in the case studies allow identifying the advantages of the novel architecture of MASCEM, and most importantly, the added value of using the proposed ontologies. They facilitate the integration of independent multi-agent simulators, by providing a way for communications to be understood by heterogeneous agents from the various systems.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Doutor em Matemática na área de especialização de Análise Numérica
Resumo:
Um dos principais problemas e interesses da engenharia sísmica prende‐se com a previsão dos efeitos que eventos sísmicos futuros possam provocar à superfície do terreno de um dado local que permita o desenvolvimento de estratégias de prevenção e mitigação de efeitos assim como de estratégias que visem incrementar a resiliência da região em questão. Esta previsão requer informação relativa quer a movimentos sísmicos ocorridos anteriormente quer ao solo existente no local a fim de se estabelecer uma relação entre as características de eventos e os deslocamentos verificados à superfície. Para a região Autónoma dos Açores ambos os conjuntos de informação disponível revelam‐se em número insuficiente para que daí resulte uma análise adequada. No sentido de contribuir para a resolução do problema apresentado, o presente trabalho recorre num primeiro momento à metodologia estatística para a elaboração de colunas de solo, com caracter sintético, que permitam a colmatação das lacunas existentes na base de dados da região. Num segundo momento recorre‐se ao modelo de propagação unidireccional de ondas de corte através de uma coluna de solo, como forma de avaliar os efeitos que um conjunto de acções sísmicas produzem no topo da coluna fazendo‐se recurso do conjunto de colunas sintéticas, elaborado no presente trabalho, assim como da base de dados de acções sísmicas, de caracter sintético, existente para o afloramento rochoso no arquipélago dos Açores. Da avaliação do modo de propagação de ondas sísmicas resulta um conjunto de espectros que servemde base à elaboração de equações de previsão dos movimentos sísmicos para os diferentes tipos de terreno da região.
Resumo:
Muitas vezes é necessário trabalhar com variáveis categóricas, porem há um número restrito de análisesque as abordam. Uma boa técnica de segmentação é a grade of membership (GoM), muito utilizada na área médica, em psicologia e em sociologia. Essa metodologia possui uma interpretação interessante baseada em perfis extremos (segmentos) e grau de pertencimento. Porém o modelo possui grande complexidade de estimação dos parâmetros pormáxima verossimilhança. Assim, neste trabalho propõe-se o uso de algoritmos genéticos para diminuir a complexidade e o tempo de cálculo, e aumentar a acurácia. A técnica é nomeada de Genetics Algorithms grade of membership (GA-GoM). Para averiguar a efetividade, o modelo foi primeiramente abordado por simulação – foi executado um experimento fatorial levando em conta o número de segmentos e variáveis trabalhadas. Em seguida, foi abordado um caso prático de segmentação de engajamento em redes sociais. Os resultados são superiores para modelos de maior complexidade. Conclui-se, assim, que é útil a abordagem para grandes bases de dados que contenham dados categóricos.
Resumo:
RESUMO - A definição e medição da produção são questões centrais para a administração hospitalar. A produção hospitalar, quando se consideram os casos tratados, baseia-se em dois aspectos: a definição de sistemas de classificação de doentes como metodologia para identificar produtos e a criação de índices de casemix para se compararem esses mesmos produtos. Para a sua definição e implementação podem ser consideradas características relacionadas com a complexidade dos casos (atributo da oferta) ou com a sua gravidade (atributo da procura), ou ainda características mistas. Por sua vez, a análise do perfil e da política de admissões dos hospitais adquire um maior relevo no contexto de novas experiências previstas e em curso no SNS e da renovada necessidade de avaliação e regulação que daí decorrem. Neste estudo pretendeu-se discutir a metodologia para apuramento do índice de casemix dos hospitais, introduzindo- se a gravidade dos casos tratados como atributo relevante para a sua concretização. Assim, foi analisada uma amostra de 950 443 casos presentes na base de dados dos resumos de alta em 2002, tendo- -se dado particular atenção aos 31 hospitais posteriormente constituídos como SA. Foram considerados três índices de casemix: índice de complexidade (a partir do peso relativo dos DRGs), índice de gravidade (a partir da escala de mortalidade esperada do disease staging recalibrada para Portugal) e índice conjunto (média dos dois anteriores). Verificou-se que a análise do índice de complexidade, de gravidade e conjunto dá informações distintas sobre o perfil de admissões dos hospitais considerados. Os índices de complexidade e de gravidade mostram associações distintas às características dos hospitais e dos doentes tratados. Para além disso, existe uma diferença clara entre os casos com tratamento médico e cirúrgico. No entanto, para a globalidade dos hospitais analisados observou-se que os hospitais que tratam os casos mais graves tratam igualmente os mais complexos, tendo-se ainda identificado alguns hospitais em que tal não se verifica e, quando possível, apontado eventuais razões para esse comportamento.
Resumo:
Tese de Doutoramento em Engenharia Civil.
Resumo:
Tese de Doutoramento em Engenharia Civil.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Estudou-se o comportamento das soluções tampão SMP, Woodruff original, Woodruff (1+1), (1+2) e (1+3), acetato de cálcio 1,00 N - 0,50 N e 0,25 N, frente a quantidades variáveis de ácidos clorídrico, acético, cítrico e salicílico. Foram calculados os valores da capacidade ou índice tampão de todas as soluções e as equações de regressão relativas às variações do pH das soluções em função da quantidade de ácido clorídrico adicionada. No caso da solução SMP, foram estabelecidas, também, as equações de regressão para os ácidos, acético, cítrico e salicílico.