149 resultados para Algoritmos computacionais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil - Perfil Estruturas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitas vezes é necessário trabalhar com variáveis categóricas, porem há um número restrito de análisesque as abordam. Uma boa técnica de segmentação é a grade of membership (GoM), muito utilizada na área médica, em psicologia e em sociologia. Essa metodologia possui uma interpretação interessante baseada em perfis extremos (segmentos) e grau de pertencimento. Porém o modelo possui grande complexidade de estimação dos parâmetros pormáxima verossimilhança. Assim, neste trabalho propõe-se o uso de algoritmos genéticos para diminuir a complexidade e o tempo de cálculo, e aumentar a acurácia. A técnica é nomeada de Genetics Algorithms grade of membership (GA-GoM). Para averiguar a efetividade, o modelo foi primeiramente abordado por simulação – foi executado um experimento fatorial levando em conta o número de segmentos e variáveis trabalhadas. Em seguida, foi abordado um caso prático de segmentação de engajamento em redes sociais. Os resultados são superiores para modelos de maior complexidade. Conclui-se, assim, que é útil a abordagem para grandes bases de dados que contenham dados categóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mestrado em Ciências da Educação: área de Educação e Desenvolvimento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to usage conditions, hazardous environments or intentional causes, physical and virtual systems are subject to faults in their components, which may affect their overall behaviour. In a ‘black-box’ agent modelled by a set of propositional logic rules, in which just a subset of components is externally visible, such faults may only be recognised by examining some output function of the agent. A (fault-free) model of the agent’s system provides the expected output given some input. If the real output differs from that predicted output, then the system is faulty. However, some faults may only become apparent in the system output when appropriate inputs are given. A number of problems regarding both testing and diagnosis thus arise, such as testing a fault, testing the whole system, finding possible faults and differentiating them to locate the correct one. The corresponding optimisation problems of finding solutions that require minimum resources are also very relevant in industry, as is minimal diagnosis. In this dissertation we use a well established set of benchmark circuits to address such diagnostic related problems and propose and develop models with different logics that we formalise and generalise as much as possible. We also prove that all techniques generalise to agents and to multiple faults. The developed multi-valued logics extend the usual Boolean logic (suitable for faultfree models) by encoding values with some dependency (usually on faults). Such logics thus allow modelling an arbitrary number of diagnostic theories. Each problem is subsequently solved with CLP solvers that we implement and discuss, together with a new efficient search technique that we present. We compare our results with other approaches such as SAT (that require substantial duplication of circuits), showing the effectiveness of constraints over multi-valued logics, and also the adequacy of a general set constraint solver (with special inferences over set functions such as cardinality) on other problems. In addition, for an optimisation problem, we integrate local search with a constructive approach (branch-and-bound) using a variety of logics to improve an existing efficient tool based on SAT and ILP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O recurso à monitorização do comportamento dos programas durante a execução é necessário em diversos contextos de aplicação. Por exemplo, para verificar a utilização dos recursos computacionais durante a execução, para calcular métricas que permitam melhor definir o perfil da aplicação ou para melhor identificar em que pontos da execução estão as causas de desvios do comportamento desejado de um programa e, noutros casos, para controlar a configuração da aplicação ou do sistema que suporta a sua execução. Esta técnica tem sido aplicada, quer no caso de programas sequenciais, quer se trate de programas distribuídos. Em particular, no caso de computações paralelas, dada a complexidade devida ao seu não determinismo, estas técnicas têm sido a melhor fonte de informação para compreender a execução da aplicação, quer em termos da sua correcção, quer na avaliação do seu desempenho e utilização dos recursos computacionais. As principais dificuldades no desenvolvimento e na adopção de ferramentas de monitorização, prendem-se com a complexidade dos sistemas de computação paralela e distribuída e com a necessidade de desenvolver soluções específicas para cada plataforma, para cada arquitectura e para cada objectivo. No entanto existem funcionalidades genéricas que, se presentes em todos os casos, podem ajudar ao desenvolvimento de novas ferramentas e à sua adaptação a diferentes ambientes computacionais. Esta dissertação propõe um modelo para suportar a observação e o controlo de aplicações paralelas e distribuídas (DAMS - Distributed ApplicationsMonitoring System). O modelo define uma arquitectura abstracta de monitorização baseada num núcleo mínimo sobre o qual assentam conjuntos de serviços que realizam as funcionalidades pretendidas em cada cenário de utilização. A sua organização em camadas de abstracção e a capacidade de extensão modular, permitem suportar o desenvolvimento de conjuntos de funcionalidades que podem ser partilhadas por distintas ferramentas. Por outro lado, o modelo proposto facilita o desenvolvimento de ferramentas de observação e controlo, sobre diferentes plataformas de suporte à execução. Nesta dissertação, são apresentados exemplos da utilização do modelo e da infraestrutura que o suporta, em diversos cenários de observação e controlo. Descreve-se também a experimentação realizada, com base em protótipos desenvolvidos sobre duas plataformas computacionais distintas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é desenvolvido um algoritmo enumerativo paramétrico de optimização global para a resolução de Problemas de Programação Matemática com Restrições de Equilíbrio ou de Complementaridade (MPEC). A comparação com outras técnicas globais da literatura é efectuada para um leque variado de problemas, de modo a poder avaliar a eficiência do processo proposto. A utilização de algoritmos de MPEC para a resolução de alguns problemas de optimização global é o outro grande objectivo desta tese. Nesse sentido são introduzidas novas formula¸c˜oes de programas bilineares e lineares complementares como MPECs. São ainda analisadas e discutidas formulaçõess MPEC para o problema de programação linear inteira 0-1, para a determinação do Conjunto Independente Máximo de um Grafo (MIS) e para a estimação do Número de Condição de uma Matriz. Para o problema MIS é desenvolvido um algoritmo de ramificação e limitação, baseado na decomposição de uma função quadrática numa diferença de duas funçõess convexas (DC). Finalmente é introduzida uma técnica MPEC local para a estimação do número de condição com a norma l1 e é estabelecido para matrizes de Minkowski que o número de condição nessa norma pode ser estimado com apenas um sistema de equações lineares. Em todos os desenvolvimentos houve uma grande preocupação em testar as novas formulações e algoritmos com problemas conhecidos da literatura, de modo a aferir da qualidade e interesse dessas propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this work was to investigate the application of experimental design techniques for the identification of Michaelis-Menten kinetic parameters. More specifically, this study attempts to elucidate the relative advantages/disadvantages of employing complex experimental design techniques in relation to equidistant sampling when applied to different reactor operation modes. All studies were supported by simulation data of a generic enzymatic process that obeys to the Michaelis-Menten kinetic equation. Different aspects were investigated, such as the influence of the reactor operation mode (batch, fed-batch with pulse wise feeding and fed-batch with continuous feeding) and the experimental design optimality criteria on the effectiveness of kinetic parameters identification. The following experimental design optimality criteria were investigated: 1) minimization of the sum of the diagonal of the Fisher information matrix (FIM) inverse (A-criterion), 2) maximization of the determinant of the FIM (D-criterion), 3) maximization of the smallest eigenvalue of the FIM (E-criterion) and 4) minimization of the quotient between the largest and the smallest eigenvalue (modified E-criterion). The comparison and assessment of the different methodologies was made on the basis of the Cramér-Rao lower bounds (CRLB) error in respect to the parameters vmax and Km of the Michaelis-Menten kinetic equation. In what concerns the reactor operation mode, it was concluded that fed-batch (pulses) is better than batch operation for parameter identification. When the former operation mode is adopted, the vmax CRLB error is lowered by 18.6 % while the Km CRLB error is lowered by 26.4 % when compared to the batch operation mode. Regarding the optimality criteria, the best method was the A-criterion, with an average vmax CRLB of 6.34 % and 5.27 %, for batch and fed-batch (pulses), respectively, while presenting a Km’s CRLB of 25.1 % and 18.1 %, for batch and fed-batch (pulses), respectively. As a general conclusion of the present study, it can be stated that experimental design is justified if the starting parameters CRLB errors are inferior to 19.5 % (vmax) and 45% (Km), for batch processes, and inferior to 42 % and to 50% for fed-batch (pulses) process. Otherwise equidistant sampling is a more rational decision. This conclusion clearly supports that, for fed-batch operation, the use of experimental design is likely to largely improve the identification of Michaelis-Menten kinetic parameters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Retinal imaging with a confocal scaning laser Ophthalmoscope (cSLO) involves scanning a small laser beam over the retina and constructing an image from the reflected light. By applying the confocal principle, tomographic images can be produced by measuring a sequence of slices at different depths. However, the thickness of such slices, when compared with the retinal thickness, is too large to give useful 3D retinal images, if no processing is done. In this work, a prototype cSLO was modified in terms hardware and software to give the ability of doing the tomographic measurements with the maximum theoretical axial resolution possible. A model eye was built to test the performance of the system. A novel algorithm has been developed which fits a double Gaussian curve to the axial intensity profiles generated from a stack of images slices. The underlying assumption is that the laser light has mainly been reflected by two structures in the retina, the internal limiting membrane and the retinal pigment epithelium. From the fitted curve topographic images and novel thickness images of the retina can be generated. Deconvolution algorithms have also been developed to improve the axial resolution of the system, using a theoretically predicted cSLO point spread function. The technique was evaluated using measurements made on a model eye, four normal eyes and seven eyes containing retinal pathology. The reproducibility, accuracy and physiological measurements obtained, were compared with available published data, and showed good agreement. The difference in the measurements when using a double rather than a single Gaussian model was also analysed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem por fim o estudo de algoritmos que permitem efectuar uma visita guiada a um modelo volumétrico. A visita guiada permite ao utilizador observar todas as partes relevantes do modelo. Assim, expõe-se como seleccionar de forma automática as posições que melhor permitem observar as partes relevantes. Dadas essas posições, mostra-se como criar um percurso que passe por todas elas. O esforço exigido ao utilizador, durante a visita guiada, face à metodologia aplicada, é o mínimo possível, como se este estivesse numa plataforma móvel e alguém empurrasse essa plataforma. Liberto de todas as preocupações associadas à sua deslocação, o utilizador poderá concentrar-se apenas na observação do modelo. É também abordado o caso particular da visita guiada a um modelo representativo de um museu de pintura. As técnicas estudadas são implementadas, tendo sido criado um protótipo que permite efectuar uma visita guiada ao museu. Nessa visita guiada, as peças expostas, que são as partes relevantes do museu, são visualizadas da melhor forma possível, ou seja, de maneira a que sua dimensão e o contexto em que estão inseridas sejam perceptíveis para o utilizador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho corresponde, no essencial, ao relatório do estudo de Avaliação da Formação Contínua de Professores no Distrito de Setúbal, que decorreu no ano de 2006. O estudo incidiu sobre a actividade de cinco Centros de Formação de Associações de Escolas dos concelhos de Almada, Moita, Palmela e Setúbal. O instrumento de recolha de dados utilizado foi o inquérito por questionário. Não se definiu uma amostra, optando-se por realizá-lo a toda a população. No total obtiveram-se 1191 questionários válidos. A população foi constituída por professores, a leccionar nas escolas associadas aos Centros de Formação participantes no estudo. Para uma melhor compreensão da problemática em estudo realizou-se uma breve exploração do conceito de avaliação e do conceito de formação. Fez-se o enquadramento legislativo da Formação Contínua de Professores em Portugal e o levantamento de estudos sobre o uso das tecnologias por professores. Os dados do questionário permitiram a caracterização dos inquiridos; a análise das suas competências e dos seus conhecimentos de base tecnológica; a análise do nível de satisfação dos professores face à Formação Contínua realizada; a avaliação das suas futuras necessidades de formação e a resposta às novas formas de Formação Contínua de Professores. A metodologia de investigação de natureza quantitativa foi complementada com a análise de conteúdo das perguntas do tipo aberto do questionário. Conclui-se que os professores possuem conhecimentos e competências adequadas para a Formação Contínua que faz uso intensivo das redes computacionais. A utilização das TIC melhora a qualidade da formação e a qualidade do ensino quando usadas na sala de aula. A formação frequentada pelos docentes teve uma reduzida influência nos resultados escolares dos alunos, embora tenha contribuído para o seu desenvolvimento profissional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do Grau de Mestre em Engenharia Mecânica