1000 resultados para Algoritmos experimentais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado elaborado no Laboratório Nacional de Engenharia Civil (LNEC) para a obtenção do grau de Mestre em Engenharia Civil pelo Instituto Superior de Engenharia de Lisboa no âmbito do protocolo de cooperação ente o ISEL e o LNEC

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De que é que falamos quando nos referimos a AUTOMAÇÃO? - Estamos no âmbito da engenharia eletrotécnica, da mecânica, da eletrónica, da programação, das comunicações, da instrumentação, da pneumática, ….? Na realidade referimo-nos a um pouco disto tudo - a automação será possivelmente a área de engenharia mais pluridisciplinar e integradora de tecnologia. Quererá isto dizer que se trata de uma atividade de Engenharia complexa e densa? - Sim e não! - Vejamos; é vasta e densa porque o seu exercício obriga ao conhecimento de um alargado e diversificado leque de tecnologias mas, a sua base teórica, ou se quisermos os seus “algoritmos”, são bastante simples; baseiam-se em lógica e em sequências temporais. Que competências serão então necessárias para se exercer Automação? - Um conhecimento transversal de engenharia, com particular foco na Engenharia Eletrotécnica e uma boa experiência de terreno. Partindo desta constatação este artigo tem a intenção de abordar a automação de um ponto de vista eminentemente prático e aplicado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado elaborado no Laboratório Nacional de Engenharia Civil (LNEC) para a obtenção do grau de Mestre em Engenharia Civil pelo Instituto Superior de Engenharia de Lisboa no âmbito do protocolo de cooperação entre o ISEL e o LNEC

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de propulsão baseados em motores síncronos de ímanes permanentes (MSIP) têm sido considerados como a opção mais promissora para os veículos híbridos (VH) e elétricos (VE). A situação atual relativa às reservas e custos dos elementos de terras-raras poderá trazer algumas alterações nesta tendência; a opção por motores que prescindem destes elementos poderá trazer um novo estímulo à aplicação dos motores de indução neste domínio. Este artigo procura apresentar uma análise comparativa entre MSIP e motores de indução (MI) num espectro alargado de velocidades de funcionamento, com especial destaque para os seus desempenhos energéticos. Começa-se por abordar as características gerais de comportamento exigidas aos VE, que definem os múltiplos cenários de funcionamento que poderão ser impostos aos motores. Em seguida, são focadas as principais características de ambas as máquinas, procurando realçar as vantagens e desvantagens mais relevantes, no contexto dos VE. Com base nos regimes de funcionamento a que serão submetidos, analisam-se as diferenças dos rendimentos naturais de ambos os motores. Para os MI é também abordado o importante tema dos algoritmos de minimização de perdas, com vista ao aumento dos rendimentos em regimes de carga onde o desempenho destas máquinas é inferior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de natureza Científica para obtenção do grau de Mestre em Engenharia Civil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to usage conditions, hazardous environments or intentional causes, physical and virtual systems are subject to faults in their components, which may affect their overall behaviour. In a ‘black-box’ agent modelled by a set of propositional logic rules, in which just a subset of components is externally visible, such faults may only be recognised by examining some output function of the agent. A (fault-free) model of the agent’s system provides the expected output given some input. If the real output differs from that predicted output, then the system is faulty. However, some faults may only become apparent in the system output when appropriate inputs are given. A number of problems regarding both testing and diagnosis thus arise, such as testing a fault, testing the whole system, finding possible faults and differentiating them to locate the correct one. The corresponding optimisation problems of finding solutions that require minimum resources are also very relevant in industry, as is minimal diagnosis. In this dissertation we use a well established set of benchmark circuits to address such diagnostic related problems and propose and develop models with different logics that we formalise and generalise as much as possible. We also prove that all techniques generalise to agents and to multiple faults. The developed multi-valued logics extend the usual Boolean logic (suitable for faultfree models) by encoding values with some dependency (usually on faults). Such logics thus allow modelling an arbitrary number of diagnostic theories. Each problem is subsequently solved with CLP solvers that we implement and discuss, together with a new efficient search technique that we present. We compare our results with other approaches such as SAT (that require substantial duplication of circuits), showing the effectiveness of constraints over multi-valued logics, and also the adequacy of a general set constraint solver (with special inferences over set functions such as cardinality) on other problems. In addition, for an optimisation problem, we integrate local search with a constructive approach (branch-and-bound) using a variety of logics to improve an existing efficient tool based on SAT and ILP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é desenvolvido um algoritmo enumerativo paramétrico de optimização global para a resolução de Problemas de Programação Matemática com Restrições de Equilíbrio ou de Complementaridade (MPEC). A comparação com outras técnicas globais da literatura é efectuada para um leque variado de problemas, de modo a poder avaliar a eficiência do processo proposto. A utilização de algoritmos de MPEC para a resolução de alguns problemas de optimização global é o outro grande objectivo desta tese. Nesse sentido são introduzidas novas formula¸c˜oes de programas bilineares e lineares complementares como MPECs. São ainda analisadas e discutidas formulaçõess MPEC para o problema de programação linear inteira 0-1, para a determinação do Conjunto Independente Máximo de um Grafo (MIS) e para a estimação do Número de Condição de uma Matriz. Para o problema MIS é desenvolvido um algoritmo de ramificação e limitação, baseado na decomposição de uma função quadrática numa diferença de duas funçõess convexas (DC). Finalmente é introduzida uma técnica MPEC local para a estimação do número de condição com a norma l1 e é estabelecido para matrizes de Minkowski que o número de condição nessa norma pode ser estimado com apenas um sistema de equações lineares. Em todos os desenvolvimentos houve uma grande preocupação em testar as novas formulações e algoritmos com problemas conhecidos da literatura, de modo a aferir da qualidade e interesse dessas propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this work was to investigate the application of experimental design techniques for the identification of Michaelis-Menten kinetic parameters. More specifically, this study attempts to elucidate the relative advantages/disadvantages of employing complex experimental design techniques in relation to equidistant sampling when applied to different reactor operation modes. All studies were supported by simulation data of a generic enzymatic process that obeys to the Michaelis-Menten kinetic equation. Different aspects were investigated, such as the influence of the reactor operation mode (batch, fed-batch with pulse wise feeding and fed-batch with continuous feeding) and the experimental design optimality criteria on the effectiveness of kinetic parameters identification. The following experimental design optimality criteria were investigated: 1) minimization of the sum of the diagonal of the Fisher information matrix (FIM) inverse (A-criterion), 2) maximization of the determinant of the FIM (D-criterion), 3) maximization of the smallest eigenvalue of the FIM (E-criterion) and 4) minimization of the quotient between the largest and the smallest eigenvalue (modified E-criterion). The comparison and assessment of the different methodologies was made on the basis of the Cramér-Rao lower bounds (CRLB) error in respect to the parameters vmax and Km of the Michaelis-Menten kinetic equation. In what concerns the reactor operation mode, it was concluded that fed-batch (pulses) is better than batch operation for parameter identification. When the former operation mode is adopted, the vmax CRLB error is lowered by 18.6 % while the Km CRLB error is lowered by 26.4 % when compared to the batch operation mode. Regarding the optimality criteria, the best method was the A-criterion, with an average vmax CRLB of 6.34 % and 5.27 %, for batch and fed-batch (pulses), respectively, while presenting a Km’s CRLB of 25.1 % and 18.1 %, for batch and fed-batch (pulses), respectively. As a general conclusion of the present study, it can be stated that experimental design is justified if the starting parameters CRLB errors are inferior to 19.5 % (vmax) and 45% (Km), for batch processes, and inferior to 42 % and to 50% for fed-batch (pulses) process. Otherwise equidistant sampling is a more rational decision. This conclusion clearly supports that, for fed-batch operation, the use of experimental design is likely to largely improve the identification of Michaelis-Menten kinetic parameters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho decorre da importância crescente que o conhecimento das argamassas para edifícios antigos tem vindo a assumir. Pretende-se contribuir para o estudo da influência dos ligantes no comportamento das argamassas, em particular no caso da cal aérea e de componentes pozolânicos que com ela possam reagir directamente. As funções exigidas às argamassas para aplicação em edifícios antigos dependem de várias condicionantes e implicam que estas possuam um conjunto de características nem sempre fáceis de atingir ou compatibilizar. Fundamentalmente estas argamassas têm de proporcionar uma eficiente protecção aos suportes em que são aplicadas, evitando o desenvolvimento de mecanismos que conduzam à sua degradação. Para tal devem registar uma boa compatibilidade mecânica, física e química com os referidos suportes. Simultaneamente, e dentro do possível, devem apresentar características que permitam prevenir a sua própria degradação, incrementando a sua durabilidade face a acções específicas inerentes a edifícios antigos, como seja o ataque por sais solúveis. A tese foi dividida em duas partes organizadas em oito capítulos. Na primeira parte apresenta-se uma análise bibliográfica genérica sobre argamassas para edifícios antigos, enquanto na segunda parte é registado todo o desenvolvimento experimental. Para além de serem descritos os procedimentos experimentais utilizados, são comparadas argamassas diversificadas (situadas entre as de cal aérea e as de cimento, bem como argamassas pré-doseadas), argamassas produzidas a partir de diferentes preparações e tipos de cais aéreas e ainda caracterizadas várias argamassas de cal aérea com diferentes componentes pozolânicos, distintas proporções entre a cal e esses componentes e sujeitas a dois tipos de condições de cura. Apresentam-se ainda uma análise crítica, as conclusões do estudo e propostas para desenvolvimentos futuros do trabalho de investigação realizado. Palavras-chave: Ligantes, cais aéreas, componentes pozolânicos, condições de cura, caracterização de argamassas, argamassas para conservação, compatibilidades mecânica, física e química, sais solúveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Retinal imaging with a confocal scaning laser Ophthalmoscope (cSLO) involves scanning a small laser beam over the retina and constructing an image from the reflected light. By applying the confocal principle, tomographic images can be produced by measuring a sequence of slices at different depths. However, the thickness of such slices, when compared with the retinal thickness, is too large to give useful 3D retinal images, if no processing is done. In this work, a prototype cSLO was modified in terms hardware and software to give the ability of doing the tomographic measurements with the maximum theoretical axial resolution possible. A model eye was built to test the performance of the system. A novel algorithm has been developed which fits a double Gaussian curve to the axial intensity profiles generated from a stack of images slices. The underlying assumption is that the laser light has mainly been reflected by two structures in the retina, the internal limiting membrane and the retinal pigment epithelium. From the fitted curve topographic images and novel thickness images of the retina can be generated. Deconvolution algorithms have also been developed to improve the axial resolution of the system, using a theoretically predicted cSLO point spread function. The technique was evaluated using measurements made on a model eye, four normal eyes and seven eyes containing retinal pathology. The reproducibility, accuracy and physiological measurements obtained, were compared with available published data, and showed good agreement. The difference in the measurements when using a double rather than a single Gaussian model was also analysed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No âmbito da avaliação da ecocompatibilidade de novos materiais para a construção civil, foram realizados diversos estudos, destinados à avaliação dos potenciais tóxicos e ecotóxicos desses materiais. Estes estudos foram enquadrados pelo projecto europeu VALOMAT, o qual foi financiado pela Comissão Europeia, através do programa Brite-Euram III. Os novos materiais, desenvolvidos pela empresa Inertec, basearam-se na valorização de escórias de centrais de incineração de RSU e destinaram-se a duas aplicações distintas: a) Enchimento de minas ou pedreiras abandonadas ou em fim de vida; b) Construções, no sub-solo, de paredes diafragma. Os estudos realizados, no âmbito da presente dissertação, foram efectuados em cinco fases distintas. Na primeira fase, procedeu-se ao estudo das propriedades químicas e ecotoxicológicas intrínsecas de seis amostras de escórias brutas. Utilizou-se o ensaio de lixiviação descrito na norma europeia EN 12457-2. Os lixiviados produzidos foram caracterizados recorrendo a 21 parâmetros químicos e quatro indicadores biológicos. Os resultados obtidos permitiram verificar que as escórias apresentaram níveis tóxicos e ecotóxicos muito diferenciados. A ordenação dos níveis tóxicos e ecotóxicos, por recurso a um índice químico e a um índice ecotoxicológico, e a sua integração num sistema de critérios múltiplos de decisão permitiram seleccionar cinco amostras de escórias como as mais adequadas para o desenvolvimento dos novos materiais.Na segunda fase do trabalho, procedeu-se à avaliação dos potenciais tóxicos e ecotóxicos intrínsecos de 14 materiais monolíticos, desenvolvidos pela empresa Inertec. Os materiais foram submetidos a um processo de segmentação prévio (dimensão das partículas: <4 mm). Posteriormente, foram submetidos ao ensaio de lixiviação descrito na norma europeia EN 12457-2. Os lixiviados foram caracterizados de modo semelhante ao que foi indicado para as escórias brutas. Os resultados obtidos indicaram que os níveis tóxicos e ecotóxicos dos materiais destinados ao enchimento de antigas minas ou pedreiras foram superiores aos determinados para os materiais destinados à construção de paredes diafragma. Com base nos índices químico e ecotoxicológico, foi possível ordenar as amostras dos materiais, em função dos níveis tóxicos e ecotóxicos crescentes. A integração destes resultados num sistema de critérios múltiplos de decisão permitiu seleccionar seis formulações como as mais adequadas para as duas aplicações acima referidas. A terceira fase dos estudos teve como objectivo a avaliação dos potenciais tóxicos e ecotóxicos dos materiais seleccionadas na fase anterior, sem alteração prévia das suas matrizes monolíticas. Para o efeito utilizou-se o ensaio de lixiviação descrito na norma francesa NF X31-211. Os resultados obtidos permitiram concluir que os níveis de emissão de substâncias químicas e os níveis de ecotoxicidade dos novos materiais foram inferiores aos determinados na avaliação dos potenciais tóxico e ecotóxico intrínsecos. Os materiais foram classificados como quimicamente estáveis. Os diferentes níveis tóxicos e ecotóxicos destes materiais permitiram seleccionar três formulações para os ensaios seguintes. A quarta fase envolveu o estudo do comportamento químico dos novos materiais, sob condições de actividade microbiológica induzida no agente lixiviante (ensaio de biolixiviação). Foi desenvolvida uma nova metodologia para o ensaio de biolixiviação, tendo por base alguns trabalhos de biodeterioração, biolixiviação e biodegradação, realizados por outras equipas. Os resultados obtidos permitiram concluir que o comportamento químico dos novos materiais não foi alterado por acção da actividade microbiológica. Na última fase do trabalho, procedeu-se ao estudo dos potenciais tóxico e ecotóxico dos novos materiais, em ensaios de lixiviação de longo prazo, sob três cenários diferentes de exposição ambiental (norma europeia ENV 12920). Foram construídos dez pilotos experimentais, à escala laboratorial, que foram operados sob condições diferentes, em função dos cenários de exposição ambiental. Ao longo do tempo de ensaio, os lixiviados dos pilotos foram recolhidos e analisados sob o ponto de vista químico e ecotoxicológico. Os níveis tóxicos e ecotóxicos dos lixiviados dos novos materiais foram relativamente reduzidos e diferenciados, para cada um dos materiais e para cada cenário de exposição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação teve como primeiro objectivo a identificação e quantificação de contaminantes do processo de reciclagem mecânica de plásticos de polietileno de alta densidade (PEAD) e polietileno de baixa densidade (PEBD). Desta forma aplicouse o método da análise de inertes, descrito na norma XP U44-164, da Associação Francesa de Normalização (AFNOR) e que é utilizado para classificar o composto. Os procedimentos experimentais foram aplicados na análise dos resíduos Pré-lavagem, Moinha e Final, produzidos durante o processo de reciclagem. O método adoptado permitiu identificar de forma expedita os principais contaminantes plásticos, poliestireno (PS), polipropileno (PP), polietileno tereftalato (PET) e policloreto de vinilo (PVC), e outros contaminantes, matéria orgânica, metais, vidros, pedras e areias. Uma vez que, actualmente, estes resíduos são depositados em aterro, considerou-se importante estudar outras formas de valorização. Assim, o segundo objectivo deste trabalho corresponde à caracterização físico-química dos resíduos da reciclagem de plásticos, de forma a avaliar o seu potencial para valorização energética. As alternativas consideradas foram a incineração e a co-incineração, e os resultados comparados com as normas em vigor. A comparação dos resultados obtidos com as especificações da EURITS, no caso das unidades de incineração dedicada, e da indústria cimenteira Secil, no caso da coincineração permitiram concluir que os resíduos em questão têm potencial para valorização energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de natureza Científica para obtenção do grau de Mestre em Engenharia Civil