62 resultados para correctness verification
em Instituto Politécnico do Porto, Portugal
Resumo:
In this paper we present VERITAS, a tool that focus time maintenance, that is one of the most important processes in the engineering of the time during the development of KBS. The verification and validation (V&V) process is part of a wider process denominated knowledge maintenance, in which an enterprise systematically gathers, organizes, shares, and analyzes knowledge to accomplish its goals and mission. The V&V process states if the software requirements specifications have been correctly and completely fulfilled. The methodologies proposed in software engineering have showed to be inadequate for Knowledge Based Systems (KBS) validation and verification, since KBS present some particular characteristics. VERITAS is an automatic tool developed for KBS verification which is able to detect a large number of knowledge anomalies. It addresses many relevant aspects considered in real applications, like the usage of rule triggering selection mechanisms and temporal reasoning.
Resumo:
A good verification strategy should bring near the simulation and real functioning environments. In this paper we describe a system-level co-verification strategy that uses a common flow for functional simulation, timing simulation and functional debug. This last step requires using a BST infrastructure, now widely available on commercial devices, specially on FPGAs with medium/large pin-counts.
Resumo:
Poster presented in 28th GI/ITG International Conference on Architecture of Computing Systems (ARCS 2015). 25 to 28, Mar, 2015, Poster Session. Porto, Portugal.
Resumo:
Poster presented in The 28th GI/ITG International Conference on Architecture of Computing Systems (ARCS 2015). 24 to 26, Mar, 2015. Porto, Portugal.
Resumo:
Presented at SEMINAR "ACTION TEMPS RÉEL:INFRASTRUCTURES ET SERVICES SYSTÉMES". 10, Apr, 2015. Brussels, Belgium.
Resumo:
Presented at Embed with Linux Workshop (EWiLi 2015). 4 to 9, Oct, 2015. Amsterdam, Netherlands.
Resumo:
A Era moderna trouxe ao Homem meios que facilitam muitas das suas tarefas diárias, diminuindo a actividade física e condicionando a postura corporal. Actualmente a população jovem, e sobretudo os estudantes, encontra-se exposta a uma grande quantidade de riscos de alterações posturais. Todavia, a postura assumida por parte desta classe não tem sido muito investigada. Sendo assim, este estudo tem como objectivo geral a avaliação bi-dimensional da postura corporal, na posição de pé e de sentado, de estudantes do 1º ano do Curso de Terapia Ocupacional, do Instituto Politécnico de Leiria. Os objectivos específicos centram-se na verificação das relações entre as alterações posturais desse grupo de estudantes e os sintomas de lesões músculo-esqueléticas nos últimos 12 meses, os factores sócio-demográficos e os factores considerados de risco de alterações posturais em estudantes. Para tal, utilizaram-se o Software para Avaliação Postural e a Versão adaptada do Questionário Nórdico Músculoesquelético. Constataram-se elevadas percentagens de posturas inadequadas. Na posição de pé todos os indivíduos apresentam alterações posturais num ou mais segmentos analisados, sendo que a flexão do tronco é a mais frequente. Já na posição sentada a alteração postural mais frequente é a inclinação da cabeça para o lado direito. Verificou-se ainda que algumas das alterações posturais apresentam uma relação positiva e significativa com os sintomas de lesões músculo-esqueléticas, com alguns factores de risco e sócio-demográficos. A partir dos resultados obtidos, torna-se evidente a necessidade de estabelecer programas de consciencialização para esta problemática, assim como programas de prevenção de desvios posturais.
Resumo:
In this paper we present a new methodology, based in game theory, to obtain the market balancing between Distribution Generation Companies (DGENCO), in liberalized electricity markets. The new contribution of this methodology is the verification of the participation rate of each agent based in Nucléolo Balancing and in Shapley Value. To validate the results we use the Zaragoza Distribution Network with 42 Bus and 5 DGENCO.
Resumo:
In real optimization problems, usually the analytical expression of the objective function is not known, nor its derivatives, or they are complex. In these cases it becomes essential to use optimization methods where the calculation of the derivatives, or the verification of their existence, is not necessary: the Direct Search Methods or Derivative-free Methods are one solution. When the problem has constraints, penalty functions are often used. Unfortunately the choice of the penalty parameters is, frequently, very difficult, because most strategies for choosing it are heuristics strategies. As an alternative to penalty function appeared the filter methods. A filter algorithm introduces a function that aggregates the constrained violations and constructs a biobjective problem. In this problem the step is accepted if it either reduces the objective function or the constrained violation. This implies that the filter methods are less parameter dependent than a penalty function. In this work, we present a new direct search method, based on simplex methods, for general constrained optimization that combines the features of the simplex method and filter methods. This method does not compute or approximate any derivatives, penalty constants or Lagrange multipliers. The basic idea of simplex filter algorithm is to construct an initial simplex and use the simplex to drive the search. We illustrate the behavior of our algorithm through some examples. The proposed methods were implemented in Java.
Resumo:
The filter method is a technique for solving nonlinear programming problems. The filter algorithm has two phases in each iteration. The first one reduces a measure of infeasibility, while in the second the objective function value is reduced. In real optimization problems, usually the objective function is not differentiable or its derivatives are unknown. In these cases it becomes essential to use optimization methods where the calculation of the derivatives or the verification of their existence is not necessary: direct search methods or derivative-free methods are examples of such techniques. In this work we present a new direct search method, based on simplex methods, for general constrained optimization that combines the features of simplex and filter methods. This method neither computes nor approximates derivatives, penalty constants or Lagrange multipliers.
Resumo:
Mestrado em Engenharia Química.Ramo Tecnologias de Protecção Ambiental
Resumo:
Mestrado em Engenharia Química. Ramo Tecnologias de Protecção Ambiental.
Resumo:
This paper aims to present a contrastive approach between three different ways of building concepts after proving the similar syntactic possibilities that coexist in terms. However, from the semantic point of view we can see that each language family has a different distribution in meaning. But the most important point we try to show is that the differences found in the psychological process when communicating concepts should guide the translator and the terminologist in the target text production and the terminology planning process. Differences between languages in the information transmission process are due to the different roles the different types of knowledge play. We distinguish here the analytic-descriptive knowledge and the analogical knowledge among others. We also state that none of them is the best when determining the correctness of a term, but there has to be adequacy criteria in the selection process. This concept building or term building success is important when looking at the linguistic map of the information society.
Resumo:
O objectivo do presente trabalho foi caracterizar os condensados produzidos numa fábrica de pasta para papel para identificar e localizar pontos da sua contaminação. Para o efeito, foram recolhidas amostras de condensado e caracterizados os parâmetros condutividade, pH, sódio e sílica. A amostragem decorreu no período entre 15 de Setembro a 6 de Novembro de 2008. Através da análise dos resultados obtidos para as concentrações de sílica e de sódio de cada uma das correntes, foram identificadas como contaminadas as correntes de condensado provenientes do condensador do Turbogerador 4, da área dos Digestores Descontínuos, da Evaporação e do Aquecedor de Água Quente para o Branqueamento. A realização de um balanço pontual à sílica no tanque de condensados da Central permitiu concluir que a maior contribuição advém do condensador do Turbogerador 4. Na Evaporação ocorre contaminação do condensado quando as secções do Concentrador 1 são colocadas em serviço após lavagem. Durante o acompanhamento do arranque da Evaporação, uma das secções (1/B) registou um valor máximo na concentração de sódio no condensado de 135 mg/L Na. Do estudo resulta, enquanto não for reparado e/ou substituído o equipamento responsável pelas contaminações, a necessidade de admitir requisitos para controlo da qualidade da água da caldeira menos restritivos, nomeadamente para a razão sódio/fosfato. É necessário, contudo, o rigoroso acompanhamento da qualidade da água da caldeira (pH, sobretudo) para prevenir afastamentos inesperados dos limites de controlo. Durante a realização deste trabalho foram identificadas algumas situações a melhorar, tais como a uniformização dos valores de desvio para esgoto dos condensados e das unidades utilizadas, a adequação das escalas dos aparelhos de medida para as gamas de leitura de interesse, a verificação e calibração periódica do equipamento instalado em linha, a adopção do parâmetro “Sódio” para controlo da qualidade dos condensados, a instalação de sistemas de amostragem com arrefecimento em todas as correntes de condensados e a reparação ou substituição de algum equipamento instalado em linha que se encontra em muito mau estado e ainda a manutenção do equipamento mantendo-o em boas condições de limpeza.
Resumo:
O presente trabalho tem como objectivo o desenvolvimento de um método analítico, baseado na voltametria de onda quadrada (SWV), para a análise de ciprofloxacina (CIP) em produtos farmacêuticos e em processos de remediação. Para o desenvolvimento do método voltamétrico foram utilizadas duas células voltamétricas: a célula clássica (utilizando um eléctrodo de trabalho de carbono vítreo - GCE) e um eléctrodo de carbono impresso (SPCE). Após a optimização dos parâmetros da SWV, pH (3,04), frequência (400Hz), incremento de potencial (6 mV) e amplitude do impulso de potencial (40 mV), procedeu-se a validação dos métodos, obtendo-se zonas lineares entre a concentração de CIP e a intensidade de corrente de pico de 5,0×10-6 a 6,0×10-5 mol/L (GCE) e de 1,0×10-5 a 4,0×10-5 mol/L (SPCE) e limites de detecção de 9,48×10-6 mol/L (GCE) e 2,13×10-6 mol/L (SPCE). Verificou-se que a sensibilidade, a precisão e a selectividade são superiores para o SPCE, sendo por isso esta a célula mais adequada para proceder à análise da CIP em produtos farmacêuticos. O SPCE foi aplicado com sucesso à análise de CIP num produto farmacêutico. Para o tratamento de soluções aquosas contendo a CIP foram testados dois oxidantes: o permanganato de potássio e o peróxido de hidrogénio. Para o peróxido de hidrogénio os resultados obtidos foram inconclusivos. No caso do permanganato de potássio, os resultados mostram que a degradação da ciprofloxacina depende da concentração do oxidante. Para uma concentração de CIP de 3,00×10-4 mol/L uma degradação rápida foi obtida com o uso de 6,00×10-3 mol/L de permanganato de potássio. Na aplicação do permanganato na remediação de solos verificou-se que no caso de solos húmicos a ciprofloxacina é adsorvida pelo solo, não sendo possível confirmar a ocorrência da reacção de degradação. No caso de solos arenosos verificou-se que a ciprofloxacina foi rapidamente degradada pelo permanganato de potássio.