965 resultados para Linear boundary value control problems
Resumo:
MSC Dissertation in Computer Engineering
Resumo:
OBJECTIVE Analyze the implementation of drug price regulation policy by the Drug Market Regulation Chamber.METHODS This is an interview-based study, which was undertaken in 2012, using semi-structured questionnaires with social actors from the pharmaceutical market, the pharmaceuticals industry, consumers and the regulatory agency. In addition, drug prices were compiled based on surveys conducted in the state of Sao Paulo, at the point of sale, between February 2009 and May 2012.RESULTS The mean drug prices charged at the point of sale (pharmacies) were well below the maximum price to the consumer, compared with many drugs sold in Brazil. Between 2009 and 2012, 44 of the 129 prices, corresponding to 99 drugs listed in the database of compiled prices, showed a variation of more than 20.0% in the mean prices at the point of sale and the maximum price to the consumer. In addition, many laboratories have refused to apply the price adequacy coefficient in their sales to government agencies.CONCLUSIONS The regulation implemented by the pharmaceutical market regulator was unable to significantly control prices of marketed drugs, without succeeding to push them to levels lower than those determined by the pharmaceutical industry and failing, therefore, in its objective to promote pharmaceutical support for the public. It is necessary reconstruct the regulatory law to allow market prices to be reduced by the regulator as well as institutional strengthen this government body.
Resumo:
The purpose of this paper is to discuss the linear solution of equality constrained problems by using the Frontal solution method without explicit assembling. Design/methodology/approach - Re-written frontal solution method with a priori pivot and front sequence. OpenMP parallelization, nearly linear (in elimination and substitution) up to 40 threads. Constraints enforced at the local assembling stage. Findings - When compared with both standard sparse solvers and classical frontal implementations, memory requirements and code size are significantly reduced. Research limitations/implications - Large, non-linear problems with constraints typically make use of the Newton method with Lagrange multipliers. In the context of the solution of problems with large number of constraints, the matrix transformation methods (MTM) are often more cost-effective. The paper presents a complete solution, with topological ordering, for this problem. Practical implications - A complete software package in Fortran 2003 is described. Examples of clique-based problems are shown with large systems solved in core. Social implications - More realistic non-linear problems can be solved with this Frontal code at the core of the Newton method. Originality/value - Use of topological ordering of constraints. A-priori pivot and front sequences. No need for symbolic assembling. Constraints treated at the core of the Frontal solver. Use of OpenMP in the main Frontal loop, now quantified. Availability of Software.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
A avaliação de empresas sempre constituiu um tema de elevada reflexão, sendo que vários especialistas tentam encontrar os modelos que melhor se adaptam a situações específicas e para as quais precisam de determinar um valor. No contexto empresarial português começa a ganhar significância a prática da gestão orientada para a criação de valor (Value-Based Management). O conceito de Value-Based Management assistiu a um particular desenvolvimento nos últimos 20 anos como resultado da globalização e desregulamentação dos mercados financeiros, dos avanços nas tecnologias de informação e do aumento da importância dos investidores institucionais. Vários analistas apresentaram evidência de que as empresas que adotam sistemas VBM melhoram o seu desempenho económico em relação a outras de dimensão semelhante no mesmo setor. É neste contexto que o EVA (Economic Value Added) se apresenta como uma métrica de desempenho privilegiada nos processos de controlo das decisões estratégicas tomadas. No presente trabalho pretendemos abordar o conceito da gestão baseada na criação de valor e a sua importância para o acionista, o que implica rever outros modelos de avaliação tradicionais baseados no valor contabilístico. Como métrica de avaliação do desempenho passado da empresa ao nível da criação de valor vamos dar particular importância ao estudo do EVA, fazendo referência à possível correlação entre esta métrica e o MVA (Market Value Added). O objetivo principal é analisar empiricamente a relação do EVA como medida de desempenho associada à criação de valor para os acionistas com a performance da empresa. Com efeito, vamos efetuar um estudo de caso, que vai incidir sobre um grupo empresarial português, referência no seu setor de atividade, o Grupo Galp Energia, cotado na Euronext Lisbon. Pensamos que a crescente prática da gestão baseada na criação de valor nas empresas cotadas em Portugal e a necessidade de aferir os resultados desta, tornam esta investigação pertinente, para além do facto de serem poucos os estudos empíricos à questão da criação de valor e a sua correlação com o valor acrescentado de mercado e com o valor de mercado dos capitais próprios das empresas cotadas em Portugal.
Resumo:
Signal Processing, Vol. 83, nº 11
Resumo:
Uma grande parte do tempo de uma organização é despendida em atividades que não criam qualquer tipo de valor. Este tipo de atividades são consideradas como desperdícios, pois consomem recursos e tempo, como é o caso de deslocações, controlos, ajustes, armazenamento de materiais, resolução de problemas, entre tantos outros, levando a um elevado custo dos produtos disponibilizados. Em 1996 a designação de Lean Thinking foi usada, pela primeira vez, por Womack e Jones, onde é falada como uma filosofia de gestão, que tem como principal objetivo reduzir os desperdícios num processo produtivo. Reduzindo os desperdícios aumenta-se a qualidade e diminui-se os tempos de processamento e, consequentemente, os custos de produção. É nesta base que assenta o documento aqui presente, que tem o objetivo de criar e desenvolver um jogo de simulação onde seja possível aplicar várias ferramentas Lean. O jogo de simulação é uma continuação de uma pesquisa e estudo teórico de um aluno de erasmus e faz parte de um projeto internacional do Lean Learning Academy (LLA). Criou-se um processo produtivo de montagem de canetas que fosse o mais semelhante ao que se encontram nas empresas, com todos os acessórios para o pleno funcionamento da simulação, como é o caso de instruções de montagem, procedimentos de controlo e ordens de produção, para assim posteriormente ser possível analisar os dados e as dificuldades encontradas, de modo a aplicar-se as ferramentas Lean. Apesar de serem abordadas várias ferramentas Lean neste trabalho, foram trabalhadas mais detalhadamente as seguintes: - Value Stream Mapping (VSM); - Single Minute Exchange of Dies (SMED); - Balanceamento da linha. De modo a ser percetível o conteúdo e as vantagens das três ferramentas Lean mencionadas no trabalho, estas foram aplicadas e simuladas, de forma a existir uma componente prática no seu estudo, para mais fácil compreensão e rápida aprendizagem.
Resumo:
Proceedings of the European Control Conference, ECC’01, Porto, Portugal, September 2001
Resumo:
Redundant manipulators allow the trajectory optimization, the obstacle avoidance, and the resolution of singularities. For this type of manipulators, the kinematic control algorithms adopt generalized inverse matrices that may lead to unpredictable responses. Motivated by these problems this paper studies the complexity revealed by the trajectory planning scheme when controlling redundant manipulators. The results reveal fundamental properties of the chaotic phenomena and give a deeper insight towards the development of superior trajectory control algorithms.
Resumo:
In this article we describe several methods for the discretization of the differintegral operator sa, where α = u + jv is a complex value. The concept of the conjugated-order differintegral is also introduced, which enables the use of complex-order differintegrals while still producing real-valued time responses and transfer functions. The performance of the resulting approximations is analysed in both the time and frequency domains. Several results are presented that demonstrate its utility in control system design.
Resumo:
This paper shows that a hierarchical architecture, distributing several control actions in growing levels of complexity and using resources of reconfigurable computing, enables one to take into account the ease of future modifications, updates and improvements in robotic applications. An experimental example of a Stewart—Gough platform control (a platform applied as the solution to countless practical problems) is presented using reconfigurable computing. The software and hardware developed are structured in independent blocks. This open architecture implementation allows easy expansion of the system and better adaptation of the platform to its related tasks.
Resumo:
The main purpose of this work was the development of procedures for the simulation of atmospheric ows over complex terrain, using OpenFOAM. For this aim, tools and procedures were developed apart from this code for the preprocessing and data extraction, which were thereafter applied in the simulation of a real case. For the generation of the computational domain, a systematic method able to translate the terrain elevation model to a native OpenFOAM format (blockMeshDict) was developed. The outcome was a structured mesh, in which the user has the ability to de ne the number of control volumes and its dimensions. With this procedure, the di culties of case set up and the high computation computational e ort reported in literature associated to the use of snappyHexMesh, the OpenFOAM resource explored until then for the accomplishment of this task, were considered to be overwhelmed. Developed procedures for the generation of boundary conditions allowed for the automatic creation of idealized inlet vertical pro les, de nition of wall functions boundary conditions and the calculation of internal eld rst guesses for the iterative solution process, having as input experimental data supplied by the user. The applicability of the generated boundary conditions was limited to the simulation of turbulent, steady-state, incompressible and neutrally strati ed atmospheric ows, always recurring to RaNS (Reynolds-averaged Navier-Stokes) models. For the modelling of terrain roughness, the developed procedure allowed to the user the de nition of idealized conditions, like an uniform aerodynamic roughness length or making its value variable as a function of topography characteristic values, or the using of real site data, and it was complemented by the development of techniques for the visual inspection of generated roughness maps. The absence and the non inclusion of a forest canopy model limited the applicability of this procedure to low aerodynamic roughness lengths. The developed tools and procedures were then applied in the simulation of a neutrally strati ed atmospheric ow over the Askervein hill. In the performed simulations was evaluated the solution sensibility to di erent convection schemes, mesh dimensions, ground roughness and formulations of the k - ε and k - ω models. When compared to experimental data, calculated values showed a good agreement of speed-up in hill top and lee side, with a relative error of less than 10% at a height of 10 m above ground level. Turbulent kinetic energy was considered to be well simulated in the hill windward and hill top, and grossly predicted in the lee side, where a zone of ow separation was also identi ed. Despite the need of more work to evaluate the importance of the downstream recirculation zone in the quality of gathered results, the agreement between the calculated and experimental values and the OpenFOAM sensibility to the tested parameters were considered to be generally in line with the simulations presented in the reviewed bibliographic sources.
Resumo:
Introdução: As doenças cardiovasculares, entre elas, a hipertensão arterial constituem um dos problemas de saúde de maior prevalência, principalmente na população idosa. Alguns estudos têm apontado o exercício físico aeróbio como uma medida não farmacológica, eficaz, para a prevenção/controlo da hipertensão arterial. Objetivo: Este estudo avaliou o efeito agudo hipotensivo de uma sessão isolada de exercício físico aeróbio num grupo de idosos hipertensos. Metodologia: A amostra foi composta por 20 idosos, de ambos os géneros, hipertensos, pertencentes a três centros de convívio distintos. Os indivíduos foram divididos aleatoriamente em dois grupos, o grupo que fez a sessão de exercício (n=10, idade 81,2 ± 4,71 anos) e o grupo de controlo (n=10, idade 81,2 ± 3,12 anos). O grupo de exercício participou numa sessão de exercício físico aeróbio que teve 35 minutos de duração, sendo constituída por 5 minutos de aquecimento seguidos por duas frações de marcha a uma intensidade de 40-60% da frequência cardíaca (FC) de reserva, cada uma delas com a duração de 10 minutos, separadas por um intervalo de recuperação de 5 minutos, terminando com 5 minutos de retorno à calma. O grupo controlo permaneceu 35 minutos em repouso sentado. Todos indivíduos foram sujeitos à avaliação da pressão arterial (PA) e FC, antes, no intervalo, no término, 20 e 40 minutos após a sessão de exercício/35 minutos de repouso. Resultados: Observou-se que no grupo que fez o exercício físico a PA sistólica medida aos 40 minutos (123,04 ± 23,07 mmHg) após a sessão de exercício foi significativamente inferior aos restantes momentos de avaliação, incluindo o valor observado em repouso (135,57 ± 19,43 mmHg). A PA diastólica medida também aos 40 minutos (61,94 ± 7,49 mmHg) após a sessão foi inferior à obtida ao intervalo da sessão (72,40 ± 8,51 mmHg). A FC foi significativamente superior ao intervalo e no término da sessão comparativamente a todos os outros momentos de avaliação. Quanto ao grupo controlo não se verificaram diferenças significativas em nenhum dos parâmetros avaliados. Conclusão: Uma sessão isolada de exercício aeróbio de curta promove a ocorrência do fenómeno hipotensão pós-exercício em idosos hipertensos.
Resumo:
Reliable flow simulation software is inevitable to determine an optimal injection strategy in Liquid Composite Molding processes. Several methodologies can be implemented into standard software in order to reduce CPU time. Post-processing techniques might be one of them. Post-processing a finite element solution is a well-known procedure, which consists in a recalculation of the originally obtained quantities such that the rate of convergence increases without the need for expensive remeshing techniques. Post-processing is especially effective in problems where better accuracy is required for derivatives of nodal variables in regions where Dirichlet essential boundary condition is imposed strongly. In previous works influence of smoothness of non-homogeneous Dirichlet condition, imposed on smooth front was examined. However, usually quite a non-smooth boundary is obtained at each time step of the infiltration process due to discretization. Then direct application of post-processing techniques does not improve final results as expected. The new contribution of this paper lies in improvement of the standard methodology. Improved results clearly show that the recalculated flow front is closer to the ”exact” one, is smoother that the previous one and it improves local disturbances of the “exact” solution.
Resumo:
The objective of this contribution is to extend the models of cellular/composite material design to nonlinear material behaviour and apply them for design of materials for passive vibration control. As a first step a computational tool allowing determination of optimised one-dimensional isolator behaviour was developed. This model can serve as a representation for idealised macroscopic behaviour. Optimal isolator behaviour to a given set of loads is obtained by generic probabilistic metaalgorithm, simulated annealing. Cost functional involves minimization of maximum response amplitude in a set of predefined time intervals and maximization of total energy absorbed in the first loop. Dependence of the global optimum on several combinations of leading parameters of the simulated annealing procedure, like neighbourhood definition and annealing schedule, is also studied and analyzed. Obtained results facilitate the design of elastomeric cellular materials with improved behaviour in terms of dynamic stiffness for passive vibration control.